21 resultados para Taphonomic signatures
em Université de Montréal, Canada
Resumo:
L'identification de régions génomiques cibles de la sélection naturelle positive permet de mieux comprendre notre passé évolutif et de trouver des variants génétiques fonctionnels importants. Puisque la fréquence des allèles sélectionnés augmente dans la population, la sélection laisse des traces sur les séquences d'ADN et ces empreintes sont détectées lorsque la variabilité génétique d'une région est différente de celle attendue sous neutralité sélective. On propose une nouvelle approche pour analyser les données de polymorphismes : le calcul des classes alléliques d’haplotypes (HAC), permettant d'évaluer la diversité globale des haplotypes en étudiant leur composition allélique. L'idée de l'approche est de déterminer si un site est sous sélection positive récente en comparant les distributions des HAC obtenues pour les deux allèles de ce site. Grâce à l'utilisation de données simulées, nous avons étudié ces distributions sous neutralité et sous sélection en testant l'effet de différents paramètres populationnels. Pour tester notre approche empiriquement, nous avons analysé la variation génétique au niveau du gène de lactase dans les trois populations inclues dans le projet HapMap.
Resumo:
Mémoire présenté à la Faculté des études supérieures en vue de l’obtention du grade de maître ès sciences (M.Sc.) en sociologie
Resumo:
Les biomarqueurs plasmatiques constituent des outils essentiels, mais rares, utilisés pour diagnostiquer les maladies, comme les maladies cardiovasculaires (MCV), et stratifier le niveau de risque associé. L’identification de nouveaux biomarqueurs plasmatiques susceptibles d’améliorer le dépistage et le suivi des MCV représente ainsi un enjeu majeur en termes d’économie et de santé publique. Le projet vise à identifier de nouveaux biomarqueurs plasmatiques prédictifs ou diagnostiques des MCV, à déterminer le profil protéomique plasmatique de patients atteints de MCV et à développer des méthodes innovantes d’analyse d’échantillon plasmatique. L’étude a été effectuée sur une large banque de plasma provenant de 1006 individus de souche Canadienne-Française recrutés à différents stades de la MCV et qui ont été suivis sur une période de 5 ans. Des séries de déplétions ont été réalisées afin de dépléter les 14 protéines majoritaires (colonne IgY14TM) de l’échantillon avant son analyse par trois approches effectuées en parallèle: 1) Une chromatographie liquide (LC) en 2 dimensions qui fractionne les protéines selon le point isoélectrique puis selon le degré d’hydrophobicité, via le système PF2D, suivie par une chromatographie liquide couplée avec une spectrométrie de masse en tandem (LC-MS/MS). 2) Une séparation classique sur gel 1D-SDS-PAGE suivie d’une LC-MS/MS; 3) Par une déplétion plus poussée du plasma avec l’utilisation en tandem avec la colonne IgY14TM d’une colonne SupermixTM permettant de dépléter également les protéines de moyenne abondance, suivie d’une séparation sur gel 1D-SDS-PAGE et d’une analyse LC-MS/MS de la portion déplétée (3a) et de la portion liée à la SupermixTM (3b). Les résultats montrent que le système PF2D permet d’identifier plusieurs profils protéiques spécifiques au groupe MCV. Sur un total de 1156 fractions (équivalent à 1172 pics protéiques pour le groupe contrôle et 926 pics pour le groupe MCV) recueillies, 15 fractions (23 pics protéiques) présentaient des différences quantitativement significatives (p<0,05) entre les 2 groupes. De plus, 6 fractions (9 pics) sont uniquement présentes dans un groupe, représentant d’autres signatures protéomiques et biomarqueurs potentiellement intéressants. Les méthodes 2, 3a et 3b ont permis l’identification de 108, 125 et 91 protéines respectivement avec des chevauchements partiels (31% entre la méthode 2 et 3a, 61% entre 2 et 3b et 19% entre 3a et 3b). Les méthodes 2 et 3 ont permis l’identification de 12 protéines qui présentaient des différences quantitatives significatives entre les 2 groupes. L’utilisation de plusieurs approches protéomiques complémentaires nous ont d’ores et déjà permis d’identifier des candidats biomarqueurs des angines instables avec récidive d’infarctus du myocarde (IM).
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Nous avons étudié le transcriptome de neuf échantillons d'ARN extraits de cultures primaires de cellules non tumorales de l’épithélium de surface de l’ovaire (NOSE) provenant de quatre donneuses non porteuses de mutation, deux mutées sur BRCA1 et trois sur BRCA2, ainsi que de quatre échantillons d’ARN extraits de cultures primaires de cellules tumorales de l’ovaire (TOV) provenant de trois donneuses porteuses de mutation sur BRCA1 et une sur BRCA2. Nous avons identifié, pour la première fois, les signatures moléculaires associées à la présence d’une mutation de BRCA1 et BRCA2 dans les cellules NOSEs ainsi que la signature associée à la transformation tumorale des cellules NOSEs en TOVs chez les porteuses de mutation de BRCA1. Nous avons également localisé les domaines chromosomiques comportant des gènes corégulés en association avec la présence d’une mutation de BRCA1 dans les cellules NOSEs. Les allèles sauvage et muté de BRCA2 étaient exprimés dans les cellules TOVs provenant des porteuses de la mutation 8765delAG sur BRCA2. Nous avons observé que le niveau d’expression des transcrits de BRCA2 était plus élevé dans les cellules provenant des tumeurs ovariennes les plus agressives chez les femmes porteuses de la mutation 8765delAG sur BRCA2, les transcrits correspondants à l’allèle muté contribuant avec un pourcentage élevé du niveau d’expression total du gène. Le phénotype tumoral observé chez les Canadiennes Françaises porteuses de cette mutation pourrait résulter d’un effet de dosage de l’allèle muté.
Resumo:
Réalisé en cotutelle avec le Département de Préhistoire du Muséum national d’Histoire naturelle (Paris, France), École doctorale « Sciences de la nature et de l’Homme » (ED 227)
Resumo:
Ce mémoire consiste en une analyse zooarchéologique d’un assemblage faunique provenant d’un site Dorsétien des Îles Nuvuk dans l’Arctique canadien. Les données fauniques ont été analysées statistiquement en appliquant des indices d’utilité économique et des indices de densité des os. Une étude concernant le niveau de conservation de l’assemblage a révélé peu d’évidence de modification taphonomique des spécimens. Les analyses fauniques ont permis d’identifier une stratégie de subsistance de type généraliste et basée sur l’exploitation de mammifères marins, surtout des phoques annelés, pratiquée par les occupants du site de KcFs-2. Une prédominance d’individus immatures (phoques annelés) dans l’assemblage indique une abondance de ressources marines dans les régions du nord de la Baie d’Hudson et du détroit d’Hudson au moment de l’occupation, ce qui est aussi manifeste dans des études antérieures concernant les économies des peuples du Paléoesquimau tardif pour la période donnée. L’occupation du site de KcFs-2 s’est produite durant la période du Dorsétien récent au Nunavik (1500-800 B.P.), et la séquence est définie comme ayant été multi-saisonnière (de l’hiver à l’été). L’analyse des produits de l’industrie osseuse (têtes de harpons et sculptures en ivoire) a permis de confirmer l’affiliation culturelle des occupants.
Resumo:
La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.
Resumo:
La leucémie aiguë myéloïde est une hémopathie maligne génétiquement hétérogène caractérisée par de fréquents réarrangements impliquant la bande chromosomique 21q22 et le gène RUNX1. Dans ce groupe d’anomalies, les translocations t(8;21)(q22;q22) et t(3;21)(q26;q22), associées respectivement à un pronostic favorable et défavorable, sont les mieux étudiées. Or, plus de la moitié des réarrangements ciblant RUNX1 ne sont toujours pas caractérisés au niveau clinique et moléculaire. Les principaux objectifs de cette thèse sont de caractériser quatre nouvelles translocations ciblant RUNX1 et d’étudier la dérégulation transcriptionnelle associée à ces anomalies au niveau de cibles plus spécifiques ayant un rôle dans l’auto-renouvellement ou dans la différenciation hématopoïétique. À l’aide des techniques de cytogénétique et de biologie moléculaire, deux nouveaux partenaires de RUNX1, soit CLCA2 et SV2B, ont été identifiés au sein des t(1;21)(p22.3;q22) et t(15;21)(q26.1;q22) et la récurrence des partenaires USP42 et TRPS1 a été démontrée suite à l’étude des t(7;21)(p22.1;q22) et t(8;21)(q23.3;q22). Ce travail a permis de confirmer l’existence de divers modes de dérégulation de RUNX1 dans les leucémies aiguës. L’expression présumée de protéines chimériques et/ou d’isoformes tronquées de RUNX1, un dosage aberrant des transcrits de RUNX1 et la surexpression des gènes partenaires sont des conséquences révélées par l’étude de ces fusions. Le séquençage et l’analyse des jonctions génomiques des fusions récurrentes RUNX1-USP42/USP42-RUNX1 et RUNX1-TRPS1/TRPS1-RUNX1 ont démontré la présence de signatures moléculaires caractéristiques du mode de recombinaison non-homologue de type NHEJ. En raison de la structure et de la composition différente des jonctions, l’implication de composantes distinctes du mécanisme NHEJ a été proposée. Enfin, des analyses par PCR quantitative en temps réel nous ont permis de démontrer l’existence de cibles de dérégulation partagées par les fusions récurrentes et plus rares de RUNX1. Nous avons démontré que CEBPA est moins exprimé dans la majorité des spécimens étudiés présentant une fusion de RUNX1 par rapport aux spécimens avec un caryotype normal alors que JUP, une composante effectrice de la voie Wnt, est plutôt surexprimé. Malgré l’activation transcriptionnelle de JUP dans l’ensemble de ces spécimens, certaines cibles de la voie Wnt telles que CCND1 et MYC sont différemment exprimées dans ces cellules, appuyant l’hétérogénéité décrite dans ce groupe de leucémies. Malgré l’implication de partenaires variés, nos données d’expression démontrent que les chimères et les protéines tronquées de RUNX1 partagent des cibles communes d’activation et de répression transcriptionnelle et établissent, pour la première fois, des évidences moléculaires suggérant l’existence de similitudes entre la fusion récurrente RUNX1-RUNX1T1 et quatre fusions plus rares de RUNX1. Puisque des rechutes surviennent fréquemment dans ce groupe génétique, l’inhibition de JUP pourrait être une option thérapeutique intéressante et ceci est appuyé par les bénéfices observés lors de l’inhibition de la voie Wnt dans d’autres groupes génétiques de leucémies aiguës.
Resumo:
L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.
Resumo:
La nature des acides dans un environnement aqueux est primordiale dans de nombreux aspects de la chimie et de la biologie. La caractéristique principale d'un acide est sa capacité à transférer un proton vers une molécule d'eau ou vers n'importe quelle base, mais ce procédé n'est pas aussi simple qu'il y paraît. Il peut au contraire être extrêmement complexe et dépendre de manière cruciale de la solvatation des différents intermédiaires de réaction impliqués. Cette thèse décrit les études computationnelles basées sur des simulations de dynamique moléculaire ab initio qui ont pour but d'obtenir une description à l'échelle moléculaire des divers procédés de transferts de proton entre acide et bases dans un milieu aqueux. Pour cela, nous avons étudié une serie de système, dont l'acide hydrofluorique aqueux, l'acide trifluoroacétique aqueux, et un système modèle constitué d'un phénol et d'une entité carboxylate reliés entre eux par une molécule d'eau en solution aqueuse. Deux états intermédiaires ont été identifiés pour le transfert d'un proton depuis un acide. Ces intermédiaires apparaissent stabilisés par un motif local de solvatation via des ponts H. Leurs signatures spectroscopiques ont été caractérisées au moyen de la spectroscopie infrarouge, en utilisant le formalisme de la dynamique moléculaire ab initio, qui inclut l'effet quantique nucléaire de manière explicite. Cette étude a aussi identifié trois chemins de réaction élémentaire, qui sont responsable pour le transfert d'un proton d'un acide à une base, ainsi que leurs échelles de temps caractéristiques. Les conclusions tirées de ces études sont discutées dans les détails, au niveau moléculaire, avec une emphase sur les comparaisons entre les résultats théoriques et les mesures expérimentales obtenues dans a littérature ou via des collaborateurs.
Resumo:
Les institutions juridiques ont été bâties autour des réalités connues depuis des millénaires, que nous appelons de nos jours des phénomènes du monde réel. Ces phénomènes retrouvent présentement un nouveau théâtre – le cyberespace, et les règles du droit font face au défi de s’approprier ce nouvel environnement. Entre autres, les technologies du cyberespace ont mis au monde divers moyens qui nous permettent de nous identifier et de manifester notre attitude envers les actes juridiques – des finalités qui ont été assurées de longue date par la signature manuscrite. Bien que ces nouveaux moyens aient mérité un nom similaire à leur contrepartie traditionnelle – l’appellation de signature électronique, ils restent des phénomènes dont la proximité avec la signature manuscrite est discutable. Force est de constater que le seul point commun entre les moyens classiques et électroniques de signer réside dans les fonctions qu’ils remplissent. C’est en se basant sur ces fonctions communes que le droit a adopté une attitude identique envers les moyens d’authentification traditionnels et électroniques et a accueilli ces derniers sous l’emprise de ses institutions. Cependant, ceci ne signifie pas que ces institutions se soient avérées appropriées et qu’elles ne demandent aucun ajustement. Un des buts de notre étude sera de mettre en relief les moyens d’adaptation qu’offre le droit pour réconcilier ces deux environnements. Ainsi, pour ajuster l’institution de la signature aux phénomènes électroniques, le droit s’est tourné vers le standard de fiabilité de la signature électronique. Le standard de fiabilité est un complément de l’institution juridique de signature qui ne se rapporte qu’à la signature électronique et dont cette étude démontrera les applications. Les composantes du standard de fiabilité qui occuperont un deuxième volet de notre étude représentent un ensemble de règles techniques liées à la signature électronique. Ainsi, comme le standard de fiabilité puise sa substance dans les propriétés de l’architecture du cyberespace, l’attitude du droit envers la signature électronique s’avère tributaire de la morphologie du cyberespace. Étant donné que les possibilités qui nous sont offertes par la technologie continue à déterminer la réglementation juridique, il est légitime de conclure que l’examen des tendances dans l’évolution du cyberespace nous fournira un point de vue prospectif sur l’évolution des règles du droit.
Resumo:
L’examen de la rétine par des moyens non invasifs et in vivo a été un objectif de recherche pendant plusieurs années. Pour l’œil comme pour tous les organes du corps humain, un apport soutenu en oxygène est nécessaire pour le maintien de l’homéostasie. La concentration en oxygène du sang des vaisseaux rétiniens peut être déterminée principalement à partir des mesures du spectre de réflexion du fond de l’œil. En envoyant une lumière, à différentes longueurs d’onde, sur la rétine et en analysant la nature de la lumière réfléchie par la rétine, il est possible d’obtenir des informations quantitatives sur le niveau d'oxygène dans les vaisseaux sanguins de la rétine ou sur le flux sanguin. Cependant, la modélisation est compliquée due aux différentes interactions et aux chemins que la lumière prend à travers les tissus oculaires avant de quitter l’œil. L’objectif de cette thèse a été de développer et de valider un modèle mathématique afin de calculer les dérivées d’hémoglobine à partir de mesures spectrales de réflectométrie sur les vaisseaux sanguins de la rétine. L’instrument utilisé pour mesurer la fonction spectrale de réflectométrie a été un spectroréflectomètre multi-canal, une technologie capable de mesurer in vivo et en continu 800 spectres simultanément. L'équation mathématique qui décrit la fonction spectrale de réflectométrie dans la zone spectrale de 480 nm à 650 nm a été exprimée comme la combinaison linéaire de plusieurs termes représentant les signatures spectrales de l'hémoglobine SHb, de l'oxyhémoglobine SOHB, l’absorption et la diffusion des milieux oculaires et une famille de fonctions multigaussiennes utilisées pour compenser l’incompatibilité du modèle et les données expérimentales dans la zone rouge du spectre. Les résultats du modèle révèlent que le signal spectral obtenu à partir de mesures de réflectométrie dans l’œil est complexe, contenant la lumière absorbée, réfléchie et diffusée, mais chacun avec une certaine prédominance spécifique en fonction de la zone spectrale. La fonction spectrale d’absorption du sang est dominante dans la zone spectrale 520 à 580 nm, tandis que dans la zone spectrale de longueurs d’ondes plus grandes que 590 nm, la diffusion sur les cellules rouges du sang est dominante. Le modèle a été utilisé afin de mesurer la concentration d’oxygène dans les capillaires de la tête du nerf optique suite à un effort physique dynamique. L’effort physique a entraîné une réduction de la concentration d’oxygène dans les capillaires, ainsi qu’une réduction de la pression intraoculaire, tandis que la saturation sanguine en oxygène, mesurée au niveau du doigt, restait constante. Le modèle mathématique développé dans ce projet a ainsi permis, avec la technique novatrice de spectroréflectométrie multicanal, de déterminer in vivo et d’une manière non invasive l’oxygénation sanguine des vaisseaux rétiniens.
Resumo:
Les récepteurs couplés aux protéines G (RCPGs) représentent la plus grande famille de cibles thérapeutiques pour le traitement d’une panoplie de pathologies humaines. Bien que plusieurs décennies de recherche aient permis de façonner nos connaissances sur ces protéines membranaires, notre compréhension des déterminants moléculaires de leur activité signalétique reste encore limitée. De ces domaines de recherche, une avancée récente a mis à jour un nouveau phénomène, appelé sélectivité fonctionnelle des ligands, qui a bouleversé les paradigmes décrivant leu fonctionnement de ces récepteurs. Ce concept émane d’observations montrant que l’activité pharmacologique de certains ligands n’est pas nécessairement conservée sur tout le répertoire signalétiques connu du récepteur et peu se restreindre à l'activation sélective d’un sous-groupe de voies de signalisation.Ce nouveau modèle pharmacologique de l'activation des RCPG ouvre de nouvelles possibilités pour la découverte de médicaments plus efficace et sûr, ciblant les RCPGs. En effet, il permet la conception de molécules modulant spécifiquement les voies signalétiques d’intérêt thérapeutique, sans engager les autres voies qui pourraient mener à des effets secondaires indésirables ou de la tolérance. Cette thèse décrit l'utilisation d'une nouvelle approche sans marquage, basée sur la mesure du changement l'impédance cellulaire. Par la mesure des changements cellulaires, comme la morphologie, l’adhésion et/ou la redistribution des macromolécules, cette approche permet de mesurer de façon simultanée l'activité de plusieurs voies de signalisation impliqués dans ces réponses. Utilisant le récepteur β2-adrénergique (β2AR) comme modèle, nous avons démontré que les variations dans l’impédance cellulaire étaient directement liées à l’activation de multiples voies de signalisation suite à la stimulation du récepteur par son ligand. L’agoniste type du β2AR, l’isoprotérénol, s’est avéré induire une réponse d’impédance dose-dépendante constituée, dans le temps, de plusieurs caractéristiques distinctes pouvant être bloquées de façon compétitive par l’antagoniste ICI118,551 Par l’utilisation d’inhibiteurs sélectifs, nous avons été en mesure de déterminer la contribution de plusieurs voies signalétiques canoniques, comme les voies dépendantes de Gs et Gi, la production d’AMPc et l’activation de ERK1/2, sur ces changements. De plus, la dissection de la réponse d’impédance a permis d’identifier une nouvelle voie de mobilisation du Ca2+ contribuant à la réponse globale des changements initiés par la stimulation du β2AR. Dans une autre étude, nous avons rapporté que la réponse calcique induite par le β2AR serait attribuable à une transactivation Gs-dépendant du récepteur purinergique P2Y11, lui-même couplé à la protéine Gq. La mesure d’impédance permettant de distinguer et de décrire une pléiade d’activités signalétiques, nous avons émis l’hypothèse que des ligands arborant des profils signalétiques différents généreraient des réponses d’impédance distinctes. Le criblage d’une librairie de ligands spécifiques au β2AR a révélé une grande variété de signatures d’impédance. Grâce au développement d’une approche computationnelle innovatrice, nous avons été en mesure de regrouper ces signatures en cinq classes de composés, un regroupement qui s’est avéré hautement corrélé avec le profil signalétique des différents ligands. Nous avons ensuite combiné le criblage de composés par impédance avec l’utilisation d’inhibiteurs sélectifs de voies signalétiques afin d’augmenter la résolution du regroupement. En évaluant l’impact d’une voie signalétique donnée sur la signature d’impédance, nous avons été en mesure de révéler une plus grande variété de textures parmi les ligands. De plus, cette méthode s’est avérée efficace pour prédire le profil signalétique d’une librairie de composés non caractérisés, ciblant le β2AR. Ces travaux ont mené à l’élaboration d’une méthode permettant d’exprimer visuellement la sélectivité fonctionnelle de ligands et ont révélé de nouvelles classes de composés pour ce récepteur. Ces nouvelles classes de composés ont ensuite été testées sur des cardiomyocytes humains, confirmant que les composés regroupés dans différentes classes produisent des effets distincts sur la contractilité de ces cellules. Globalement, ces travaux démontrent la pertinence de l’utilisation de l’impédance cellulaire pour une évaluation précise des différences fonctionnelles parmi les composés ciblant les RCPGs. En fournissant une représentation pluridimensionnelle de la signalisation émanant des RCPGs à l’aide d’un seul essai ne requérant pas de marquage, les signatures d’impédance représentent une stratégie simple et innovante pour l’évaluation de la fonctionnalité sélective des ligands. Cette méthode pourrait être d’une grande utilité dans le processus de découverte de nouveaux médicaments.
Resumo:
Cette thèse de doctorat présente les résultats d'un relevé spectropolarimétrique visant la détection directe de champs magnétiques dans le vent d'étoiles Wolf-Rayet (WR). Les observations furent entièrement obtenues à partir du spectropolarimètre ESPaDOnS, installé sur le télescope de l'observatoire Canada-France-Hawaii. Ce projet débuta par l'observation d'un étoile très variable de type WN4 appelée EZ CMa = WR6 = HD 50896 et se poursuivit par l'observation de 11 autres étoiles WR de notre galaxie. La méthode analytique utilisée dans cette étude vise à examiner les spectres de polarisation circulaire (Stokes V) et à identifier, au travers des raies d'émission, les signatures spectrales engendrées par la présence de champs magnétiques de type split monopole dans les vents des étoiles observées. Afin de pallier à la présence de polarisation linéaire dans les données de polarisation circulaire, le cross-talk entre les spectres Stokes Q et U et le spectre Stokes V fut modélisé et éliminé avant de procéder à l'analyse magnétique. En somme, aucun champ magnétique n'est détecté de manière significative dans les 12 étoiles observées. Toutefois, une détection marginale est signalée pour les étoiles WR134, WR137 et WR138 puisque quelques-unes de leur raies spectrales semblent indiquer la présence d'une signature magnétique. Pour chacune de ces trois étoiles, la valeur la plus probable du champ magnétique présent dans le vent stellaire est respectivement de B ~ 200, 130 et 80 G. En ce qui concerne les autres étoiles pour lesquelles aucune détection magnétique ne fut obtenue, la limite supérieure moyenne de l'intensité du champ qui pourrait être présent dans les données, sans toutefois être détecté, est évaluée à 500 G. Finalement, les résultats de cette étude ne peuvent confirmer l'origine magnétique des régions d'interaction en co-rotation (CIR) observées chez plusieurs étoiles WR. En effet, aucun champ magnétique n'est détecté de façon convaincante chez les quatre étoiles pour lesquelles la présence de CIR est soupçonnée.