114 resultados para Courbe de syntonisation
Resumo:
Le nœud auriculoventriculaire (AV) joue un rôle vital dans le cœur normal et pathologique. Il connecte les oreillettes aux ventricules et, grâce à sa conduction lente, génère un délai entre les contractions auriculaire et ventriculaire permettant d’optimiser le pompage sanguin. Sa conduction lente et sa longue période réfractaire font du nœud AV un filtre d’impulsions auriculaires lors de tachyarythmies assurant ainsi une fréquence ventriculaire plus lente favorable au débit cardiaque. L’optimisation de ce filtrage est une cible dans le traitement de ces arythmies. Malgré ce rôle vital et de nombreuses études, le nœud AV demeure l’objet de plusieurs controverses qui en rendent la compréhension laborieuse. Nos études expérimentales sur des préparations isolées de cœurs de lapin visent à apporter des solutions à certains des problèmes qui limitent la compréhension des propriétés fréquentielles du nœud AV. Le premier problème concerne la définition de la propriété de récupération nodale. On s’accorde généralement sur la dépendance du temps de conduction nodale (intervalle auriculo-Hissien, AH) du temps de récupération qui le précède mais un débat presque centenaire persiste sur la façon de mesurer ce temps de récupération. Selon que l’on utilise à cette fin la longueur du cycle auriculaire (AA) ou l’intervalle His-auriculaire précédent (HA), la même réponse nodale montre des caractéristiques différentes, un paradoxe à ce jour inexpliqué. Le temps de conduction nodale augmente aussi avec le degré et la durée d'une fréquence rapide, un phénomène appelé fatigue. Or, les caractéristiques de la fatigue mesurée varient avec l’indice de récupération utilisé (AA vs. HA). De plus, une troisième propriété appelée facilitation qui entraîne un raccourcissement du temps de conduction diffère aussi avec l’indice de récupération utilisé. Pour établir l’origine de ce problème, nous avons déterminé les différences entre les courbes de récupération (AH compilé en fonction du AA ou HA) pour 30 états fonctionnels nodaux différents. Ces conditions étaient obtenues à l’aide de protocoles permettant la variation du cycle de base (BCL) et du cycle prétest (PTCL), deux paramètres connus pour altérer la fonction nodale. Nous avons pu établir que pour chaque état fonctionnel, la forme de la courbe de récupération et le niveau de fatigue étaient les mêmes pour les deux indices de récupération. Ceci s’applique aussi aux données obtenues à des BCL et PTCL égaux comme dans les protocoles de stimulation prématurée conventionnels couramment utilisés. Nos résultats ont établi pour la première fois que les propriétés nodales de récupération et de fatigue sont indépendantes de l’indice de récupération utilisé. Nos données montrent aussi que les différences entre les courbes de récupération en fonction de l’indice utilisé proviennent d’effets associés aux variations du PTCL. Notre deuxième étude établit à partir des mêmes données pourquoi les variations du PTCL altèrent différemment les courbes de récupération selon l’indice utilisé. Nous avons démontré que ces différences augmentaient en proportion directe avec l’augmentation du temps de conduction au battement prétest. Cette augmentation cause un déplacement systématique de la courbe construite avec l’intervalle AA vers la droite et de celle construite avec l’intervalle HA vers la gauche. Ce résultat met en évidence l’importance de tenir compte des changements du temps de conduction prétest dans l’évaluation de la fonction nodale, un paramètre négligé dans la plupart des études. Ce résultat montre aussi que chacun des deux indices a des limites dans sa capacité d’évaluer le temps de récupération nodale réel lorsque le temps de conduction prétest varie. Lorsque ces limites sont ignorées, comme c’est habituellement le cas, elles entraînent un biais dans l’évaluation des effets de fatigue et de facilitation. Une autre grande difficulté dans l’évaluation des propriétés fréquentielles du nœud AV concerne son état réfractaire. Deux indices sont utilisés pour évaluer la durée de la période réfractaire nodale. Le premier est la période réfractaire efficace (ERPN) définie comme l’intervalle AA le plus long qui n’est pas conduit par le nœud. Le deuxième est la période réfractaire fonctionnelle (FRPN) qui correspond à l’intervalle minimum entre deux activations mesurées à la sortie du nœud. Paradoxalement et pour des raisons obscures, l’ERPN augmente alors que la FRPN diminue avec l’augmentation de la fréquence cardiaque. De plus, ces effets varient grandement avec les sujets, les espèces et l’âge. À partir des mêmes données que pour les deux autres études, nous avons cherché dans la troisième étude l’origine des variations fréquentielles de l’ERPN et de la FRPN. Le raccourcissement du BCL prolonge l’ERPN mais n’affecte pas la FRPN. L’allongement de l’ERPN provient principalement d’un allongement du temps de conduction prétest. Un PTCL court en comparaison avec un BCL court allonge encore plus substantiellement le temps de conduction prétest mais raccourcit en même temps l’intervalle His-auriculaire, ces deux effets opposés s’additionnent pour produire un allongement net de l’ERPN. Le raccourcissement de l’intervalle His-auriculaire par le PTCL court est aussi entièrement responsable pour le raccourcissement de la FRPN. Nous avons aussi établi que, lorsque la composante du temps de conduction prétest est retirée de l’ERPN, un lien linéaire existe entre la FRPN et l’ERPN à cause de leur dépendance commune de l’intervalle His-auriculaire. Le raccourcissement combiné du BCL et du PTCL produit des effets nets prévisibles à partir de leurs effets individuels. Ces effets reproduisent ceux obtenus lors de protocoles prématurés conventionnels. Ces observations supportent un nouveau schème fonctionnel des variations fréquentielles de l’ERPN et de la FRPN à partir des effets distincts du BCL et du PTCL. Elles établissent aussi un nouveau lien entre les variations fréquentielles de l’ERPN et de la FRPN. En conclusion, la modulation fréquentielle de la fonction du nœud AV provient de la combinaison d’effets concurrents cumulatifs liés au cycle de base et non-cumulatifs liés au cycle prétest. Ces effets peuvent être interprétés de façon consistante indépendamment de l’indice de récupération en tenant compte des changements du temps de conduction au battement prétest. Les effets fréquentiels disparates sur l’ERPN et la FRPN sont aussi grandement liés aux changements du temps de conduction prétest. Lorsque l’analyse tient compte de ce facteur, l’ERPN et la FRPN montrent des variations parallèles fortement liées à celles de l’intervalle His-auriculaire. Le nouveau schème fonctionnel des propriétés fréquentielles du nœud AV supporté par nos données aidera à mieux cibler les études sur les mécanismes cellulaires contrôlant la modulation fréquentielle nodale. Nos données pourraient aider à l’interprétation et au contrôle des réponses nodales diverses associées aux tachyarythmies supraventriculaires et à leur traitement pharmacologique. En bref, nos travaux supportent une compréhension factuelle améliorée du comportement fréquentiel du nœud AV, un domaine aux applications multiples en rythmologie cardiaque.
Resumo:
Le long bio-polymère d'ADN est condensé à l’intérieur du noyau des cellules eukaryotes à l'aide de petites protéines appelées histones. En plus de leurs fonctions condensatrices,ces histones sont également la cible de nombreuses modifications post-traductionnelles(MPT), particulièrement au niveau de leur section N-terminale. Ces modifications réversibles font partie d’un code d’histones épi-génétique transmissible qui orchestre et module dynamiquement certains événements impliquant la chromatine, tels l’activation et la désactivation de gènes ainsi que la duplication et la réparation d’ADN. Ces modifications sont impliquées subséquemment dans la signalisation et la progression de cancers, tels que la leucémie. En conséquence, l'élucidation des modifications d’histones est importante pour comprendre leurs fonctions biologiques. Une méthodologie analytique a été mise au point en laboratoire pour isoler, détecter, et quantifier les MPT d’histones en utilisant une approche rapide à deux volets à l’aide d’outils bioinformatiques spécialisés. La méthodologie développée en laboratoire a été validée en utilisant des histones de souche sauvage ainsi que deux types d’histones mutants déficients en enzymes acétyltransferase. Des trois sources d’histones utilisées, la seule MPT qui a démontré un changement significatif est l’acétylation de l’histone H3 à lysine 56 (H3K56ac). L’expression et la stoechiométrie de cette MPT, issue de cellules de souche sauvage et de cellules mutantes, ont été déterminées avec précision et comparées. Les fonctions de balayage polyvalentes d'un instrument à trappe ionique quadrupôle linéaire hybride ont été utilisées pour améliorer la détection de protéines intactes. Le mode de balayage « enhanced multiply charged » (EMC) a été modifié pour contenir et détecter les ions de protéines intactes situées dans la trappe ionique linéaire. Ce mode de balayage nommé « targeted EMC » (tEMC) a permis de quadrupler le niveau de sensibilité (signal/interférence), et quintupler la résolution du mode de balayage conventionnel. De plus, la capacité de séparation des charges du tEMC a réduit de façon significative les effets de « space charge » dans la trappe ionique linéaire. La résolution supérieure du mode tEMC a permis de différencier plusieurs isoformes modifiées, particulièrement pour l’histone H3. L’analyse des peptides d’histones trypsiques à l’aide du mode de balayage « MRM » a permis le séquençage et la quantification de MPT avec un haut degré de précision. La seule MPT qui était sous-exprimée entre l’histone de souche sauvage et le mutant DOT1L fut la méthylation de l’histone H3 lysine 79(H3K79me1). Les effets de deux inhibiteurs d’enzymes HDAC (HDACi) sur l’expression de MPT d’histone ont été évalués en utilisant la méthodologie analytique mentionnée. Les histones extraites de cellules normales et cancéreuses ont été exposées à du Vorinostat(SAHA) ou du Entinostat (MS-275) pour une période de 24 à 72 heures. Deux histones furent principalement affectées, soit H3 et H4. Étonnamment, les mêmes effets n'ont pas été détectés lorsque les cellules normales ont été traitées avec le HDACi pour une période de 48 à 72 heures. Une méthode absolue de quantification avec une courbe d’étalonnage a été développée pour le peptide H3K56ac. Contrairement à certaines publications, nos résultats démontrent que cette MPT est présente dans les cellules mammifères avec une stoechiométrie très basse (< 0,1%) et n'est pas surexprimée de façon significative après le traitement au HDACi.
Resumo:
L’habenula, un noyau épithalamique, est située au centre de la voie dorsale diencéphalique. Cette voie relie les structures limbiques et les ganglions de la base aux cellules monoaminergiques du mésencéphale. En particulier, l’habenula latérale (HbL) projette directement aux cellules dopaminergiques et GABAergiques de l’aire tegmentale ventrale (ATV). L’ATV est le site d’origine de la voie mésolimbique dopaminergique, une voie impliquée de façon cruciale dans la manifestation des comportements dirigés. L’importance de cette projection habenulaire pour le comportement demeure encore méconnue. Ainsi, l’objectif de cette étude est d’approfondir notre compréhension du rôle de régulation de l’HbL sur les comportements dépendants de la neurotransmission dopaminergique. MATÉRIEL ET MÉTHODES: Des rats adultes mâles Sprague-Dawley ont été anesthésiés avec de l’isofluorane et installés sur un appareil stéréotaxique. L’acide iboténique, une neurotoxine agoniste des récepteurs glutamatergiques, était infusée bilatéralement dans l’HbL (0,25 μg/0,25 μl/côté). Les rats du groupe contrôle recevaient des infusions NaCl 0,9%. Les rats de l’expérience d’autostimulation intracérébrale (ASIC) étaient aussi implantés d’une électrode monopolaire dans le mésencéphale postérieur. Un groupe de rats était testé pour leur réponse de locomotion à l’amphétamine (0; 0,5 ou 1 mg/kg, intrapéritonéal), dix jours suivant la lésion de l’HbL. La locomotion était mesurée dans des chambres d’activité, chacune équipée de deux faisceaux parallèles infrarouges. Le jour du test, les rats étaient pesés et placés dans la chambre d’activité puis leur activité locomotrice de base était mesurée pendant une heure. Les rats recevaient ensuite une dose d’amphétamine ou le véhicule (NaCl 0,9%) par voie intrapéritonéale et l’activité locomotrice était mesurée pendant deux heures supplémentaires. Un groupe de rats distinct a été utilisé dans l’expérience d’ASIC. Commençant sept jours suivant la lésion, les rats étaient entraînés à appuyer sur un levier afin de s’autoadministrer des stimulations électriques, au cours de sessions quotidiennes. Nous avons ensuite mesuré chacun des taux de réponses d’une série de stimulations aux fréquences décroissantes. À partir d’une courbe réponses-fréquences, le seuil de récompense était inféré par la fréquence de la stimulation nécessaire pour produire une réponse semi-maximale. Les seuils de récompense étaient stabilisés à un niveau similaire pour l’ensemble des rats. Enfin, l’effet sur la récompense de l’amphétamine était testé aux mêmes doses employées pour l’expérience de locomotion. RÉSULTATS: Une lésion neurotoxique de l’HbL n’a pas altéré les niveaux de base de l’activité locomotrice dans chaque groupe. Cependant, une telle lésion a potentialisé l’effet de locomotion de l’amphétamine (1 mg/kg) pendant la première heure suivant son administration, et une tendance similaire était observable pendant la seconde heure. À l’inverse, nous n’avons observé aucune interaction entre une lésion à l’HbL et l’effet amplificateur sur la récompense de l’amphétamine. CONCLUSION: Nos résultats révèlent une importante contribution fonctionnelle de l’HbL à la locomotion induite par l’activation de la voie mésolimbique dopaminergique avec une dose de 1 mg/kg d’amphétamine. À l’opposé, aucun effet sur la récompense n’a été observé. Ces résultats suggèrent que l’activation psychomotrice et l’amplifiation de la récompense produite par l’amphétamine dépendent de substrats dissociables, chacun étant différentiellement sensible à la modulation provenant de l’HbL.
Resumo:
Objectif : Déterminer la fiabilité et la précision d’un prototype d’appareil non invasif de mesure de glucose dans le tissu interstitiel, le PGS (Photonic Glucose Sensor), en utilisant des clamps glycémiques multi-étagés. Méthodes : Le PGS a été évalué chez 13 sujets avec diabète de type 1. Deux PGS étaient testés par sujet, un sur chacun des triceps, pour évaluer la sensibilité, la spécificité, la reproductibilité et la précision comparativement à la technique de référence (le Beckman®). Chaque sujet était soumis à un clamp de glucose multi-étagé de 8 heures aux concentrations de 3, 5, 8 et 12 mmol/L, de 2 heures chacun. Résultats : La corrélation entre le PGS et le Beckman® était de 0,70. Pour la détection des hypoglycémies, la sensibilité était de 63,4%, la spécificité de 91,6%, la valeur prédictive positive (VPP) 71,8% et la valeur prédictive négative (VPN) 88,2%. Pour la détection de l’hyperglycémie, la sensibilité était de 64,7% et la spécificité de 92%, la VPP 70,8% et la VPN : 89,7%. La courbe ROC (Receiver Operating Characteristics) démontrait une précision de 0,86 pour l’hypoglycémie et de 0,87 pour l’hyperglycémie. La reproductibilité selon la « Clark Error Grid » était de 88% (A+B). Conclusion : La performance du PGS était comparable, sinon meilleure que les autres appareils sur le marché(Freestyle® Navigator, Medtronic Guardian® RT, Dexcom® STS-7) avec l’avantage qu’il n’y a pas d’aiguille. Il s’agit donc d’un appareil avec beaucoup de potentiel comme outil pour faciliter le monitoring au cours du traitement intensif du diabète. Mot clés : Diabète, diabète de type 1, PGS (Photonic Glucose Sensor), mesure continue de glucose, courbe ROC, « Clark Error Grid».
Resumo:
La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
Le benzo-a-pyrène (BaP) est un cancérogène reconnu pour l'homme, contaminant présent dans notre environnement. Il cause des dommages à l'ADN que nous avons mesurés dans les lymphocytes exposés à de faibles concentrations de BaP, provenant de 20 jeunes volontaires non fumeurs et en santé. Suite à l’exposition, la fréquence des micronoyaux (MN) augmente significativement et décrit une courbe dose-réponse non linéaire, suggérant le déclenchement du processus de détoxification et la réparation de l’ADN. Des différences entre les individus et entre les sexes sont présentes dans la réponse génotoxique produite par le BaP. Le test des aberrations chromosomiques montre que le pourcentage de chromosomes cassés augmente significativement dans les cellules exposées au BaP. Combinés avec l'augmentation de la fréquence des MN, nos résultats confirment l'effet clastogène du BaP déjà rapporté dans la littérature. L’hybridation in situ en fluorescence (FISH) des MN avec une sonde pancentromérique est aussi utilisée pour établir leur mécanisme de formation. La FISH révèle que la majorité des MN formés après une exposition au BaP contient un centromère et plus, ce qui est significativement différent de la condition non exposée. Plus précisément, dans nos conditions expérimentales, les MN induits par le BaP contiennent surtout trois centromères et plus, indiquant également la présence d'un effet aneugène. L'effet clastogène du BaP est relié à son rôle d'initiateur dans la cancérogenèse, alors que l'effet aneugène le relierait à l'étape de progression. Ces résultats sont importants puisque l'exposition aux composés de la classe du BaP est de longue durée (cigarette, air pollué).
Resumo:
La représentation d'une surface, son lissage et son utilisation pour l'identification, la comparaison, la classification, et l'étude des variations de volume, de courbure ou de topologie sont omniprésentes dans l'aire de la numérisation. Parmi les méthodes mathématiques, nous avons retenu les transformations difféomorphiques d'un pattern de référence. Il y a un grand intérêt théorique et numérique à approcher un difféomorphisme arbitraire par des difféomorphismes engendrés par des champs de vitesses. Sur le plan théorique la question est : "est-ce que le sous-groupe de difféomorphismes engendrés par des champs de vitesses est dense dans le groupe plus large de Micheletti pour la métrique de Courant ?" Malgré quelques progrès réalisés ici, cette question demeure ouverte. Les pistes empruntées ont alors convergé vers le sous-groupe de Azencott et de Trouvé et sa métrique dans le cadre de l'imagerie. Elle correspond à une notion de géodésique entre deux difféomorphismes dans leur sous-groupe. L'optimisation est utilisée pour obtenir un système d'équations état adjoint caractérisant la solution optimale du problème d'identification à partir des observations. Cette approche est adaptée à l'identification de surfaces obtenues par un numériseur tel que, par exemple, le scan d'un visage. Ce problème est beaucoup plus difficile que celui d'imagerie. On doit alors introduire un système de référence courbe et une surface à facettes pour les calculs. On donne la formulation du problème d'identification et du calcul du changement de volume par rapport à un scan de référence.
Resumo:
Cette thèse s’articule autour de trois chapitres indépendants qui s’inscrivent dans les champs de la macroéconomie, de l’économie monétaire et de la finance internationale. Dans le premier chapitre, je construis un modèle néo-keynesien d’équilibre général sous incertitude pour examiner les implications de la production domestique des ménages pour la politique monétaire. Le modèle proposé permet de reconcilier deux faits empiriques majeurs: la forte sensibilité du produit intérieur brut aux chocs monétaires (obtenue à partir des modèles VAR), et le faible degré de rigidité nominale observé dans les micro-données. Le deuxième chapitre étudie le role de la transformation structurelle (réallocation de la main d’oeuvre entre secteurs) sur la volatilité de la production aggregée dans un panel de pays. Le troisième chapitre quant à lui met en exergue l’importance de la cartographie des échanges commerciaux pour le choix entre un régime de change fixe et l’arrimage à un panier de devises. "Household Production, Services and Monetary Policy" (Chapitre 1) part de l’observation selon laquelle les ménages peuvent produire à domicile des substituts aux services marchands, contrairement aux biens non durables qu’ils acquièrent presque exclusivement sur le marché. Dans ce contexte, ils procèdent à d’importants arbitrages entre produire les services à domicile ou les acquerir sur le marché, dépendamment des changements dans leur revenu. Pour examiner les implications de tels arbitrages (qui s’avèrent être importants dans les micro-données) le secteur domestique est introduit dans un modèle néo-keyenesien d’équilibre général sous incertitude à deux secteurs (le secteur des biens non durables et le secteur des services) autrement standard. Je montre que les firmes du secteur des services sont moins enclin à changer leurs prix du fait que les ménages ont l’option de produire soit même des services substituts. Ceci se traduit par la présence d’un terme endogène supplémentaire qui déplace la courbe de Phillips dans ce secteur. Ce terme croit avec le degré de substituabilité qui existe entre les services produits à domicile et ceux acquis sur le marché. Cet accroissement de la rigidité nominale amplifie la sensibilité de la production réelle aux chocs monétaires, notamment dans le secteur des services, ce qui est compatible avec l’évidence VAR selon laquelle les services de consommation sont plus sensibles aux variations de taux d’intérêt que les biens non durables. "Structural Transformation and the Volatility of Aggregate Output: A Cross-country Analysis" (Chapitre 2) est basée sur l’évidence empirique d’une relation négative entre la part de la main d’oeuvre allouée au secteur des services et la volatilité de la production aggrégée, même lorsque je contrôle pour les facteurs tels que le développement du secteur financier. Ce resultat aggregé est la conséquence des développements sectoriels: la productivité de la main d’oeuvre est beaucoup plus volatile dans l’agriculture et les industries manufacturières que dans les services. La production aggregée deviendrait donc mécaniquement moins volatile au fur et à mesure que la main d’oeuvre se déplace de l’agriculture et de la manufacture vers les services. Pour évaluer cette hypothèse, je calibre un modèle de transformation structurelle à l’économie américaine, que j’utilise ensuite pour générer l’allocation sectorielle de la main d’oeuvre dans l’agriculture, l’industrie et les services pour les autres pays de l’OCDE. Dans une analyse contre-factuelle, le modèle est utlisé pour restreindre la mobilité de la main d’oeuvre entre secteurs de façon endogène. Les calculs montrent alors que le déplacement de la main d’oeuvre vers le secteur des services réduit en effet la volatilité de la production aggregée. "Exchange Rate Volatility under Alternative Peg Regimes: Do Trade Patterns Matter?" (Chapitre 3) est une contribution à la litterature économique qui s’interesse au choix entre divers regimes de change. J’utilise les données mensuelles de taux de change bilatéraux et de commerce extérieur entre 1980 et 2010 pour les pays membre de l’Union Economique et Monétaire Ouest Africaine (UEMOA). La monnaie de ces pays (le franc CFA) est arrimée au franc Francais depuis le milieu des années 40 et à l’euro depuis son introduction en 1999. Au moment de l’arrimage initial, la France était le principal partenaire commercial des pays de l’UEMOA. Depuis lors, et plus encore au cours des dix dernières années, la cartographie des échanges de l’union a significativement changé en faveur des pays du groupe des BICs, notamment la Chine. Je montre dans ce chapitre que l’arrimage à un panier de devises aurait induit une volatilité moins pronnoncée du taux de change effectif nominal du franc CFA au cours de la décennie écoulée, comparé à la parité fixe actuelle. Ce chapitre, cependant, n’aborde pas la question de taux de change optimal pour les pays de l’UEMOA, un aspect qui serait intéressant pour une recherche future.
Resumo:
Les incorporations des mémoires épisodiques dans les rêves apparaissent en formes fragmentées et suivent un modèle temporel distinct qui suit une courbe sinusoïdale. Ce modèle est caractérisé par les incorporations immédiates, qui apparaissent 1-2 jours après l’événement (effet de résidus diurnes), et les incorporations tardives, qui apparaissent 5-7 jours après l’événement (effet de délai). Ces deux effets sont considérés comme des liens entre les processus de consolidation de la mémoire et la formation du rêve. Cette courbe temporelle a été observée pour une variété de stimuli expérimentaux. Cependant, aucune étude à date n’a démontré que le contenu des rêves réagit aux événements diurnes d’une manière plus générale et non-spécifique. Le but de notre étude était d’examiner si deux événements qualitativement distincts, un séjour nocturne au laboratoire (LAB), considéré comme un événement interpersonnel, et une tâche de réalité virtuelle (RV), considérée comme un événement non-interpersonnel, sont intégrés de façon différente dans le contenu onirique. Selon nos hypothèses, 1) les éléments spécifiques liés au LAB et à RV seraient incorporés dans les rêves avec des patrons tendances temporels différents, et 2) les incorporations spécifiques seraient associées à des changements plus généraux dans le locus de contrôle (LoC) du rêve. Vingt-six participants ont passé une nuit dans le laboratoire, ont été exposé à une tâche de RV, et ont rempli un journal de rêve pendant 10 jours. Les rapports de rêve ont été cotés pour les éléments spécifiques portant sur LAB et sur RV, et pour l'évolution générale de LoC du rêve. Nos deux hypothèses ont été confirmées: 1) les incorporations de LAB et RV sont négativement corrélées et apparaissent dans le rêve selon des modèles temporels différents. Les incorporations du LAB ont suivi une courbe sinusoïdale en forme de U, avec un effet de résidu diurne et un effet de délai. Les incorporations de RV ont suivi un patron différent, et ont eu un maximum d’incorporations au jour 4. 2) les scores du LoC du rêve étaient plus externes pour le jour 1 (max incorporations du LAB) et plus internes pour le jour 4 (max incorporations de RV). Ces modèles d'incorporation distincts peuvent refléter des différences dans la façon dont les deux événements ont été traités par les processus de consolidation de la mémoire. Dans ce cas, une expérience interpersonnelle (LAB) était incorporée plus tôt dans le temps. Les résultats suggèrent que LoC du rêve reflète les processus de mémoire plus généraux, qui affectent le contenu du rêve entier, et qui sont partiellement indépendants des incorporations spécifiques.
Resumo:
INTRODUCTION : L’insuffisance cardiaque congestive (ICC) induit remodelage pulmonaire et dysfonction ventriculaire droite (VD) qui contribuent de façon importante à la morbidité/mortalité. Malgré l’efficacité prouvée, l’antagonisme des récepteurs minéralocorticoïdes est sous-utilisé en ICC et ses mécanismes d’actions demeurent incompris. Nous avons évalué si l’Aldostérone contribue au remodelage pulmonaire et à la dysfonction VD en stimulant la prolifération des myofibroblastes (MYFs) pulmonaires. MÉTHODE ET RÉSULTATS : L’étude a été réalisée chez des rats avec infarctus du myocarde (IM) de taille modérée à grande permettant le développement de l’ICC. Deux semaines après l’IM, les rats ont été traités avec 100mg/kg/jour d’Aldactone ou non, pendant trois semaines et comparé à un groupe témoin (N=21;24;8). Comparativement au groupe témoin, les rats IM ont développé une ICC caractérisée par une réduction de la fraction de raccourcissement du VG (53±1%vs.16±2%, moyenne±ESM, P<0.0001), une hypertension pulmonaire (PSVD:27±1vs.40±3mmHg, P<0.01) et une hypertrophie VD (VD/(VG+Septum):24±1%vs.38±3%, P<0.05). L’Aldactone n’a eu aucun effet sur ces paramètres. Les rats IM ont développé un syndrome pulmonaire caractérisé par un abaissement de la courbe respiratoire pression-volume, un remodelage structurel pulmonaire avec doublement du poids poumon sec (P<0.01) et de la fibrose pulmonaire avec augmentation du taux de collagène dans les poumons (P<0.05). L’Aldactone n’a pas restauré la fonction pulmonaire. Enfin, les MYFs pulmonaires isolés n’ont pas proliféré avec l’exposition de 48h aux deux traitements d’Aldostérone (10-7M, 10-6M). CONCLUSION : L’Aldostérone ne contribue pas au remodelage pulmonaire et à la dysfonction VD associés à l’ICC. D’autres mécanismes d’actions sont responsables des effets bénéfiques de l’Aldactone.
Resumo:
La contribution de la neurotransmission dopaminergique dans le noyau accumbens à l’effet de récompense induit par la stimulation électrique du cerveau a été l’objet de plusieurs années de recherche. Cependant, d’autres sites recevant des terminaisons dopaminergiques pourraient contribuer à moduler la récompense dans d’autres régions cérébrales. Parmi elles, on retrouve l’habenula qui reçoit des projections dopaminergiques de l’aire tegmentale ventrale. La contribution de cette voie au phénomène de récompense en général et à l’effet de recompense induit par l’autostimulation intracrânienne est peu connue. Le but de cette recherche était d’étudier la contribution de la dopamine mésohabenulaire à l’effet de recompense induit par la stimulation électrique du raphé dorsal. Des rats ont été implantés d’une bicanule dans l’Hb et d’une électrode dans le raphé dorsal. Le paradigme du déplacement de la courbe a été utilisé pour évaluer les changements dans l’effet de récompense à la suite de l’injection intra-habenulaire d’amphétamine (10-40 μg). À titre de contrôles positifs, des rats ont reçu l’amphétamine dans le core et dans le shell (1-20 μg) du noyau accumbens. Les injections d’amphétamine dans l’habenula n’ont pas changé l’effet de récompense induit par la stimulation électrique. Dans le noyau accumbens, les injections dans le shell et le core provoquent des augmentations dans l’effet de récompense comme il a déjà été démontré. Nos résultats suggèrent que la neurotransmission dopaminergique dans l’habenula latérale ne contribue pas significativement au circuit soutenant l’effet renforçant de la stimulation électrique du cerveau.
Resumo:
L’émergence des souches bactériennes résistantes aux antibiotiques est un phénomène inquiétant, qui se répand à travers le monde. Staphylococcus aureus et Pseudomonas aeruginosa sont des bactéries pathogènes opportunistes multi résistantes qui peuvent causer plusieurs maladies. Cependant, ces bactéries deviennent difficiles à traiter avec des antibiotiques sans occasionner de toxicité. Alors pour trouver des solutions, c’est nécessaire de développer de nouvelles molécules afin de combattre les agents pathogènes résistants. Grâce à leur action pharmacologique, les fluorures exercent un certain effet antibactérien au niveau de l'émail des dents; donc, leur association aux antibiotiques pourrait bien a méliorer l’activité antimicrobienne. De ce fait, nous nous sommes proposés d’étudier les activités in vitro de la vancomycine (VAN), l’oxacilline (OXA), la ceftazidime (CFT) et la méropenème (MER) libre ou associée au fluorure de sodium (NaF) et fluorure de lithium (LiF) qui ont été évaluées sur des souches S.aureus et P.aeruginosa sensibles et résistantes, par la méthode de la microdilution en bouillon, déterminant leur concentration minimale inhibitrice (CMI), leur concentration minimale bactéricide (CMB), leur courbe cinétique (Time-Kill). Leur cytotoxicité sur les globules rouges humains, et leur stabilité à la température de 4°C et 22°C ont été étudiées. Les associations des antimicrobiens aux dérivés des fluorures ont montré une amélioration de l’effet des antibiotiques par la réduction des leurs concentrations et toxicité pour traiter correctement ces pathogènes résistants. Par conséquent, des antibiotiques associés aux dérivés de fluorure pourraient devenir une option de traitement contre des souches résistantes afin de diminuer la toxicité causée par de fortes doses des antibiotiques conventionnels.
Resumo:
Le benzo-a-pyrène (BaP) est un hydrocarbure aromatique polycyclique (HAP) cancérogène pour l’homme, qui contamine toutes les sphères de notre environnement. Son métabolite, le BaP-7,8-diol-9,10-époxyde (BPDE) est considéré comme son cancérogène ultime. Le BPDE se lie à l’ADN, formant des adduits qui doivent être réparés et qui seraient responsables des dommages à l’ADN et de la cancérogenèse induite par le BaP. Les adduits BPDE-ADN et les dommages à l’ADN (bris simple-brin [BSB] à l’ADN, aberrations chromosomiques [AC], échanges entre chromatides-sœurs [ÉCS] et micronoyaux [MN]) ont été mesurés dans les lymphocytes humains exposés à de faibles concentrations de BaP, provenant de jeunes volontaires non-fumeurs et en santé. Suite à l’exposition au BaP, le niveau d’adduits BPDE-ADN et la fréquence des AC et des MN augmentent significativement, puis diminuent aux concentrations les plus élevées de BaP testées, suggérant une induction du métabolisme de phase II du BaP. Lors de la mesure des ÉCS, nous obtenons une courbe dose-réponse linéaire, indiquant la production d’un autre type de lésions devant être réparées par le système de réparation par recombinaison homologue. Ces lésions pourraient être des bris à l’ADN ou des bases oxydées (8-OH-dG), ce qui est suggéré par l’analyse des corrélations existant entre nos biomarqueurs. Par ailleurs, la comparaison de la courbe dose-réponse des hommes et des femmes montre que des différences existent entre les sexes. Ainsi, les ÉCS, les AC et les MN sont significativement augmentés chez les hommes à la plus faible concentration de BaP, alors que chez les femmes cette augmentation, quoique présente, est non significative. Des différences interindividuelles sont également observées et sont plus importantes pour les adduits BPDE-ADN, les MN et les AC, alors que pour les ÉCS elles sont minimes. Les analyses statistiques effectuées ont permis d’établir que quatre facteurs (niveau d’exposition au BaP, adduits BPDE-ADN, fréquence des AC et nombre de MN par cellule micronucléée) expliquent jusqu’à 59 % de la variabilité observée dans le test des ÉCS, alors qu’aucun facteur significatif n’a pu être identifié dans le test des AC et des MN. L’analyse du mécanisme de formation de nos biomarqueurs précoces permet de suggérer que les bris à l’ADN et les bases oxydées devraient être classées comme biomarqueurs de dose biologique efficace, au sein des biomarqueurs d’exposition, dans le continuum exposition-maladie du BaP, étant donné qu’ils causent la formation des biomarqueurs de génotoxicité (ÉCS, AC et MN). Par ailleurs, le test des AC et des MN ont permis de confirmer l’action clastogénique du BaP en plus de mettre en évidence des effets aneugènes affectant surtout la ségrégation des chromosomes lors de la division cellulaire. Ces effets aneugènes, reliés à l’étape de progression dans la cancérogenèse, pourraient être particulièrement importants puisque l’exposition au BaP et aux HAP est chronique et dure plusieurs années, voire des décennies. La compréhension des mécanismes régissant la formation des biomarqueurs étudiés dans cette étude, ainsi que des relations existant entre eux, peut être appliquée à de nombreux contaminants connus et émergents de notre environnement et contribuer à en évaluer le mode d’action.