806 resultados para Signal gain coefficient
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.
Resumo:
Suite à la rencontre d’un antigène (Ag) présenté à la surface des cellules présentatrice de l’Ag (CPA), les lymphocytes T naïfs, ayant un récepteur des cellules T (RCT) spécifique de l’Ag, vont proliférer et se différencier en LT effecteurs (1). Suite à l’élimination de l’Ag la majorité des LTe vont mourir par apoptose alors que les restants vont se différencier en LT mémoire (LTm) protégeant l’organisme à long terme. Les mécanismes qui permettent la différenciation des LTe en LTm sont encore inconnus. Pour comprendre comment les LTm CD8+ sont générés à partir des LTe, nous avons émis l’hypothèse que la densité de l’Ag présenté par les CPA peut avoir un impact sur la sélection des LT CD8+ répondant l’Ag à se différencier en LTm. De manière intéressante, nos résultats montrent qu’une immunisation avec des cellules dendritiques (DCs) exprimant un haut niveau de complexe CMH/peptide à sa surface permet le développement de LTm. À l’inverse, le développement des LTm est fortement réduit (10-20X) lorsque les souris sont immunisées avec des DCs exprimant un niveau faible de complexes CMH/peptide à leur surface. De plus, la quantité d’Ag n’a aucune influence ni sur l’expansion des LT CD8+ ni sur l’acquisition de leurs fonctions effectrices, mais affecte de manière critique la génération des LTm. Nos résultats suggèrent que le nombre de RCT engagé lors de la reconnaissance de l’Ag est important pour la formation des LTm. Pour cela nous avons observé par vidéo-microscopie le temps d’interaction entre des LTn et des DCs. Nos résultats montrent que le temps et la qualité de l’interaction sont dépendants de la densité d’Ag présenté par les DCs. Effectivement, nous observons une diminution dans le pourcentage de LT faisant une interaction prolongée avec les DCs quand le niveau d’Ag est faible. De plus, nous observons des variations de l’expression des facteurs de transcription clefs impliqués dans la différenciation des LTm tels qu’Eomes, Bcl-6 et Blimp-1. Par ailleurs, la densité d’Ag fait varier l’expression du Neuron-derived orphan nuclear receptor 1 (Nor-1). Nor-1 est impliqué dans la conversion de Bcl-2 en molécule pro-apoptotique et contribue à la mort par apoptose des LTe pendant la phase de contraction. Notre modèle propose que la densité de l’épitope contrôle la génération des CD8+ LTm. Une meilleure compréhension des mécanismes impliqués dans la génération des LTm permettra le développement de meilleures stratégies pour la génération de vaccin. Dans un second temps, nous avons évalué le rôle du signal RCT dans l’homéostasie des LTm. Pour ce faire, nous avons utilisé un modèle de souris transgénique pour le RCT dont son expression peut être modulée par un traitement à la tétracycline. Ce système nous a permis d’abolir l’expression du RCT à la surface des LTm. De manière intéressante, en absence de RCT exprimé, les LTm CD8+ peuvent survivre à long terme dans l’organisme et rester fonctionnels. De plus, une sous population des LTm CD4+ a la capacité de survivre sans RCT exprimé dans un hôte lymphopénique alors que l’autre sous population nécessite l’expression du RCT.
Resumo:
Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.
Resumo:
Les fichiers sons qui accompagne mon document sont au format midi. Le programme que nous avons développés pour ce travail est en language Python.
Advances in therapeutic risk management through signal detection and risk minimisation tool analyses
Resumo:
Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée.
Resumo:
Le but de ce projet est d’étudier l’effet des défauts cristallins sur les propriétés optoélectroniques de photodétecteurs fabriqué à partir de « silicium noir », c’est-à-dire du silicium dopé et microstructuré par impulsions laser femtoseconde, ce qui lui donne une apparence noire mate caractéristique. Des échantillons de silicium noir ont été recuits puis implantés avec des ions ayant une énergie de 300 keV (Si+), 1500 keV (Si+) ou 2000 keV (H+). Trois fluences pour chaque énergie d’implantation ont été utilisées (1E11, 1E12, ou 1E13 ions/cm2) ce qui modifie le matériau en ajoutant des défauts cristallins à des profondeurs et concentrations variées. Neuf photodétecteurs ont été réalisés à partir de ces échantillons implantés, en plus d’un détecteur-contrôle (non-implanté). La courbe de courant-tension, la sensibilité spectrale et la réponse en fréquence ont été mesurées pour chaque détecteur afin de les comparer. Les détecteurs ont une relation de courant-tension presque ohmique, mais ceux implantés à plus haute fluence montrent une meilleure rectification. Les implantations ont eu pour effet, en général, d’augmenter la sensibilité des détecteurs. Par exemple, l’efficacité quantique externe passe de (0,069±0,001) % à 900 nm pour le détecteur-contrôle à (26,0±0,5) % pour le détecteur ayant reçu une fluence de 1E12 cm-2 d’ions de silicium de 1500 keV. Avec une tension appliquée de -0,50 V, la sensibilité est améliorée et certains détecteurs montrent un facteur de gain de photocourant supérieur à l’unité, ce qui implique un mécanisme de multiplication (avalanche ou photoconductivité). De même, la fréquence de coupure a été augmentée par l’implantation. Une technique purement optique a été mise à l’essai pour mesurer sans contacts la durée de vie effective des porteurs, dans le but d’observer une réduction de la durée de vie causée par les défauts. Utilisant le principe de la réflexion photo-induite résolue en fréquence, le montage n’a pas réuni toutes les conditions expérimentales nécessaires à la détection du signal.
Resumo:
Les récepteurs couplés aux protéines G (RCPG) constituent la plus grande famille de protéines membranaires du génome humain. Ils transmettent les signaux extracellulaires provenant de plusieurs stimuli comme les odeurs, les ions, les hormones et les neurotransmetteurs, à l'intérieur des cellules. En se liant aux RCPGs, ces molécules contribuent à la stabilisation des changements conformationnels activateurs qui se propagent jusqu'au domaine intracellulaire des récepteurs. Ces derniers engagent ensuite un ou plusieurs effecteurs, comme les protéines G hétérotrimériques et les β-arrestines (βarrs), qui activent une cascade d'événements moléculaires menant à la réponse cellulaire.Récemment, la publication de structures cristallines de RCPGs liant des ligands diffusibles a offert une opportunité de raffiner à une résolution atomique les modèles des mécanismes de transduction des signaux. Dans la première partie de cette thèse, nous avons donc exploré les déterminants de la signalisation du récepteur prototypique β2-adrénergique (β2AR), induite par les β-bloqueurs. En ne tenant compte que de leur efficacités sur le β2AR dans les voies de l'adénylate cyclase (AC) et des protéines kinases activées par les facteurs mitogéniques (MAPK), les β-bloqueurs peuvent être classés en 3 groupes distincts (agoniste inverse AC / agoniste MAPK, antagoniste neutre AC / agoniste MAPK et agoniste inverse AC / agoniste inverse MAPK). Afin de déterminer le lien entre leur efficacité et leur mode de liaison, nous avons réalisé des expériences d'arrimages moléculaires in silico entre des β-bloqueurs de chacun des groupes et la structure cristalline du β2AR liée au carazolol. De manière intéressante, les ligands à l'intérieur d'un groupe partagent un mode de liaison, alors que ceux des ligands entre les groupes divergent, suggérant que le mode de liaison des β-bloqueurs pourrait être utilisé pour prédire leur l'efficacité. En accord avec cette hypothèse, nous avons prédit et confirmé l'efficacité agoniste MAPK du carazolol, un inverse agoniste AC du β2AR se liant au récepteur de manière similaire au groupe inverse agoniste AC / agoniste MAPK. De manière intéressante, le groupement aryl des ligands agonistes inverses agonistes AC / agoniste MAPK, le seul groupement chimique variable de ce groupe, est prédite pour lier la région des 3e et 5e hélices transmembranaires (TM3 et TM5). Nous avons donc émis l'hypothèse que cette région pourrait être un déterminant de l'efficacité de ces ligands. En accord avec cette dernière, la mutation de 2 résidus (T118I, S203A) localisés proches du site de liaison des groupements aryls des β-bloqueurs, prévient l'efficacité agoniste inverse de l'ICI-118551 sur la voie de l'AC sans affecter l'efficacité d'un agoniste, indiquant que cette région est importante pour la transmission de l'effet agoniste inverse, du moins sur la voie de l'AC. Les βarrs sont des protéines d'échafaudage qui coordonnent la formation de complexes avec plusieurs dizaines d'effecteurs de signalisation. Originalement identifiées pour leur rôle dans la désensibilisation et l'internalisation des RCPGs, elles sont aussi d'importants effecteurs de la signalisation des RCPGs indépendante des protéines G hétérotrimériques. Cependant, contrairement aux protéines G hétérotrimériques, il n'existe que peu d'outils pour les étudier. Ainsi, la deuxième partie de la thèse est dédiée au développement d'outils pour l'étude des βarrs. À cette fin, nous avons d'abord tenté de transposer une méthode de mesure de l'interaction entre 2 protéines par la technologie de transfert d'énergie de bioluminescence par résonance (BRET) en microscopie et chez des souris transgéniques afin de mesurer de manière subcellulaire et dans un contexte natif l'engagement de la βarr à des RCPGs. Ainsi, nous avons établi les preuves de principe que le BRET peut être utilisé pour localiser l'interaction entre la βarr et le récepteur de la vasopressine de type 2 (V2R) sur une cellule au microscope et pour détecter l'interaction entre la βarr et le β2AR sur des tissus de souris transgéniques exprimant ces protéines fusionnées avec des partenaires BRET. Finalement, il n'existe aucun inhibiteur pharmacologique ciblant les βarrs. Ainsi, grâce à la combinaison d'approches de criblage virtuel sur un modèle de la structure des βarrs et d'essais de validation cellulaire, nous avons développé un inhibiteur pharmacologique des βarrs. À l'aide de cet outil, nous avons confirmé l'implication des βarrs dans l'activation des MAPK par le V2R, mais aussi montré un nouveau rôle des βarrs dans le recyclage du β2AR. Les connaissances et outils développés dans cette thèse permettront de mieux comprendre les déterminants moléculaires de la signalisation des RCPGs et entre autres, grâce à des nouvelles approches pour étudier le rôle cellulaire et physiologique des βarrs.
Resumo:
Les kinases régulées par les signaux extracellulaires (ERK1/2) régulent une multitude de processus cellulaires, incluant la prolifération, la survie et la différenciation. Ces kinases représentent l’élément terminal de la voie ERK/MAPK, laquelle est activée dans près de 30% de tous les cancers humains et donc généralement perçue comme étant un effecteur critique de la progression tumorale. Cependant, une accumulation d’observations suggèrent que les kinases ERK pourraient également induire la suppression tumorale. Le but premier de cette thèse est de démontrer comment la signalisation par ERK peut contribuer à la suppression tumorale et de concilier les mécanismes impliqués avec son rôle dans la progression du cancer. Puisque nos travaux ont une incidence sur les bénéfices attendus de certaines thérapies actuellement en développement, le deuxième objectif de la thèse est de proposer de nouvelles stratégies thérapeutiques pour combattre le cancer. Nous avons démontré qu’une hyperactivation des kinases ERK induit la sénescence cellulaire. Le mécanisme implique la dégradation sélective et dépendante du protéasome de nombreuses protéines, ce que nous avons nommé le SAPD (Senescence-Associated Protein Degradation). Ce processus cible des protéines requises pour différentes fonctions cellulaires, incluant la progression du cycle cellulaire, les fonctions mitochondriales et la biogenèse des ribosomes. Ensuite, nos résultats montrent qu’en plus d’inhiber l’établissement de la sénescence, une diminution de la signalisation par les kinases ERK favorise la reprogrammation cellulaire, laquelle permet aux cellules précancéreuses de développer leur tumorigénicité et aux cellules cancéreuses d’acquérir des propriétés attribuables aux cellules souches. Ces observations suggèrent que les mécanismes qui inhibent la voie ERK/MAPK pourraient favoriser l’initiation du cancer, la formation de métastases et la résistance à diverses thérapies. Enfin, nous avons démontré que la metformine, utilisée pour le traitement du diabète, inhibe le facteur de transcription NF-kB. Ce dernier joue un rôle central dans la reprogrammation cellulaire et dans la production de cytokines pro-inflammatoires nocives par les cellules sénescentes. Ainsi, nous émettons l’hypothèse que la metformine pourrait être utilisée en combinaison avec certaines thérapies afin d’éviter les effets secondaires tant d’une inhibition des kinases ERK que d’une hyperactivation. Globalement, les résultats présentés démontrent que l’effet de la voie ERK/MAPK dépend de la force de son activation. Alors qu’une activation modérée peut contribuer à la prolifération de la plupart des cellules, une forte activation induit la sénescence tandis qu’au contraire, une faible activation favorise la reprogrammation des cellules cancéreuses et donc une augmentation de l’agressivité de la tumeur. Cette polyvalence de la voie suggère une certaine prudence face à l’usage des inhibiteurs de la voie ERK/MAPK. Cependant, elle nous motive à travailler au développement de nouvelles stratégies thérapeutiques, lesquelles pourraient inclure la metformine.
Resumo:
Le traitement de l’épilepsie chez le jeune enfant représente un enjeu majeur pour le développement de ce dernier. Chez la grande majorité des enfants atteints de spasmes infantiles et chez plusieurs atteints de crises partielles complexes réfractaires, le vigabatrin (VGB) représente un traitement incontournable. Cette médication, ayant démontré un haut taux d’efficacité chez cette population, semble toutefois mener à une atteinte du champ visuel périphérique souvent asymptomatique. L’évaluation clinique des champs visuels avec la périmétrie chez les patients de moins de neuf ans d’âge développemental est toutefois très difficile, voire impossible. Les études électrophysiologiques classiques menées auprès de la population épileptique pédiatrique suggèrent l’atteinte des structures liées aux cônes de la rétine. Les protocoles standards ne sont toutefois pas spécifiques aux champs visuels et les déficits soulignés ne concordent pas avec l’atteinte périphérique observée. Cette thèse vise donc à élaborer une tâche adaptée à l’évaluation des champs visuels chez les enfants en utilisant un protocole objectif, rapide et spécifique aux champs visuels à partir des potentiels évoqués visuels (PEVs) et à évaluer, à l’aide de cette méthode, les effets neurotoxiques à long terme du VGB chez des enfants épileptiques exposés en bas âge. La validation de la méthode est présentée dans le premier article. La stimulation est constituée de deux cercles concentriques faits de damiers à renversement de phase alternant à différentes fréquences temporelles. La passation de la tâche chez l’adulte permet de constater qu’une seule électrode corticale (Oz) est nécessaire à l’enregistrement simultané des réponses du champ visuel central et périphérique et qu’il est possible de recueillir les réponses électrophysiologiques très rapidement grâces l’utilisation de l’état-stationnaire (steady-state). La comparaison des données d’enfants et d’adultes normaux permet de constater que les réponses recueillies au sein des deux régions visuelles ne dépendent ni de l’âge ni du sexe. Les réponses centrales sont aussi corrélées à l’acuité visuelle. De plus, la validité de cette méthode est corroborée auprès d’adolescents ayant reçu un diagnostic clinique d’un déficit visuel central ou périphérique. En somme, la méthode validée permet d’évaluer adéquatement les champs visuels corticaux central et périphérique simultanément et rapidement, tant chez les adultes que chez les enfants. Le second article de cette thèse porte sur l’évaluation des champs visuels, grâce à la méthode préalablement validée, d’enfants épileptiques exposés au VGB en jeune âge en comparaison avec des enfants épileptiques exposés à d’autres antiépileptiques et à des enfants neurologiquement sains. La méthode a été bonifiée grâce à la variation du contraste et à l’enregistrement simultané de la réponse rétinienne. On trouve que la réponse corticale centrale est diminuée à haut et à moyen contrastes chez les enfants exposés au VGB et à haut contraste chez les enfants exposés à d’autres antiépileptiques. Le gain de contraste est altéré au sein des deux groupes d’enfants épileptiques. Par contre, l’absence de différences entre les deux groupes neurologiquement atteints ne permet pas de faire la distinction entre l’effet de la médication et celui de la maladie. De plus, la réponse rétinienne périphérique est atteinte chez les enfants épileptiques exposés au Sabril® en comparaison avec les enfants neurologiquement sains. La réponse rétinienne périphérique semble liée à la durée d’exposition à la médication. Ces résultats corroborent ceux rapportés dans la littérature. En somme, les résultats de cette thèse offrent une méthode complémentaire, rapide, fiable, objective à celles connues pour l’évaluation des champs visuels chez les enfants. Ils apportent aussi un éclairage nouveau sur les impacts à long terme possibles chez les enfants exposés au VGB dans la petite enfance.
Resumo:
Les preuves astronomiques stipulent qu'environ 4\% de la densité de masse-énergie de l'univers serait composé d'atomes. Le reste est séparé entre la matière sombre, qui représente 24\% de la densité de masse-énergie, et l'énergie sombre, qui s'accapare les 71\% restant. Le neutralino est une particule prédite par la théorie de la supersymétrie et est un candidat à la composition de la matière sombre. Le Projet d'Identification des Candidats Supersymétriques Sombres (PICASSO) vise à détecter le neutralino en utilisant des détecteurs à gouttelettes de C$_4$F$_{10}$ en surchauffe. Lors du passage d'une particule dans les gouttelettes de C$_4$F$_{10}$, une transition de phase aura lieu si l'énergie déposée est au-delà du seuil prédit par le critère de nucléation d'une transition de phase (théorie de Seitz). L'onde acoustique émise durant la transition de phase est ensuite transformée en impulsion électrique par des capteurs piézoélectriques placés sur le pourtour du détecteur. Le signal est amplifié, numérisé puis enregistré afin de pouvoir être analysé par des outils numériques. L'ouvrage qui suit présente les travaux effectués sur la compréhension des signaux des détecteurs à gouttelettes en surchauffe dans le but d'améliorer la discrimination du bruit de fond. Un détecteur à petites gouttelettes, r $\approx 15\mu m$ a été étudié et comparé à une simulation Monte Carlo. Il s'est avéré que les possibilités de discrimination du bruit de fond provenant des particules alpha étaient réduites pour un détecteur à petites gouttelettes, et ce en accord avec le modèle théorique. Différentes composantes du système d'acquisition ont été testées dont le couplage entre le capteur piézoélectrique et la paroi en acrylique, l'efficacité des capteurs piézoélectriques à gain intégré et les conséquences de la force du gain sur la qualité du signal. Une comparaison avec des résultats de l'expérience SIMPLE (Superheated Instrument for Massive ParticLe Experiments) a été effectuée en mesurant des signaux de détecteurs PICASSO à l'aide d'un microphone électrostatique à électret. Il a été conclu que les détecteurs PICASSO ne parviennent pas à reproduire la discrimination quasi parfaite présentée par SIMPLE.
Resumo:
Réalisé sous la co-direction de Pierre Tremblay
Resumo:
A forward - biased point contact germanium signal diode placed inside a waveguide section along the E -vector is found to introduce significant phase shift of microwave signals . The usefulness of the arrangement as a phase modulator for microwave carriers is demonstrated. While there is a less significant amplitude modulation accompanying phase modulation , the insertion losses are found to be negligible. The observations can be explained on the basis of the capacitance variation of the barrier layer with forward current in the diode