963 resultados para Étoiles: paramètres atmosphériques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La grossesse est un état physiologique particulier où de nombreux changements fonctionnels et structuraux surviennent. Chez la rate, pour répondre aux besoins grandissants du fœtus, l’artère utérine se développe pour atteindre le double de son diamètre original avant parturition. Par conséquent, le débit sanguin utérin augmente d’environ vingt fois. Pour ce faire, les vaisseaux utérins sont l’objet d’un remodelage caractérisé par une hypertrophie et une hyperplasie des différentes composantes de la paroi. De plus, ce remodelage est complètement réversible après la parturition, par opposition au remodelage vasculaire « pathologique » qui affecte les artères systémiques, dans l’hypertension chronique, par exemple. La grossesse s’accompagne aussi de modifications hormonales importantes, comme les œstrogènes dont la concentration s’accroît progressivement au cours de cette période. Elle atteindra une concentration trois cents fois plus élevée avant terme que chez une femme non gravide. Cette hormone possède de multiples fonctions, ainsi qu’un mode d’action à la fois génomique et non génomique. Considérant l’ensemble de ces éléments, nous avons formulé l’hypothèse que l’œstradiol serait responsable de modifier la circulation utérine durant la grossesse, par son action vasorelaxante, mais aussi en influençant le remodelage de la vasculature utérine. Nous avons montré que le 17β-Estradiol (17β-E2) produit une relaxation due à un effet non génomique des artères utérines en agissant directement sur le muscle lisse par un mécanisme indépendant du monoxyde d’azote et des récepteurs classiques aux œstrogènes (ERα, ERβ). De plus, la relaxation induite par le 17β-E2 dans l’artère utérine durant la gestation est réduite par rapport à celle des artères des rates non gestantes. Ceci serait attribuable à une diminution de monoxyde d’azote provenant de la synthase de NO neuronale dans les muscles lisses des artères utérines. Nos résultats démontrent que le récepteur à l’œstrogène couplé aux protéines G (GPER), la protéine kinase A (PKA) et la protéine kinase G (PKG) ne sont pas impliqués dans la signalisation intracellulaire associée à l’effet vasorelaxant induit par le 17β-E2. Cependant, nous avons montré une implication probable des canaux potassiques sensibles au voltage, ainsi qu’un rôle possible des canaux potassiques de grande conductance activés par le potentiel et le calcium (BKCa). En effet, le penitrem A, un antagoniste présumé des canaux potassiques à grande conductance, réduit la réponse vasoralaxante du 17β-E2. Toutefois, une autre action du penitrem A n’est pas exclue, car l’ibériotoxine, reconnue pour inhiber les mêmes canaux, n’a pas d’effet sur cette relaxation. Quoi qu’il en soit, d’autres études sont nécessaires pour obtenir une meilleure compréhension des mécanismes impliqués dans la relaxation non génomique sur le muscle lisse des artères utérines. Quant à l’implication de l’œstrogène sur le remodelage des artères utérines durant la gestation, nous avons tenté d’inhiber la synthèse d’œstrogènes durant la gestation en utilisant un inhibiteur de l’aromatase. Plusieurs paramètres ont été évalués (paramètres sanguins, réactivité vasculaire, pression artérielle) sans changements significatifs entre le groupe contrôle et celui traité avec l’inhibiteur. Le même constat a été fait pour le dosage plasmatique de l’œstradiol, ce qui suggère l’inefficacité du blocage de l’aromatase dans ces expériences. Ainsi, notre protocole expérimental n’a pas réussi à inhiber la synthèse d’œstrogène durant la grossesse chez le rat et, ce faisant, nous n’avons pas pu vérifier notre hypothèse. En conclusion, nous avons démontré que le 17β-E2 agit de façon non génomique sur les muscles lisses des artères utérines qui implique une action sur les canaux potassiques de la membrane cellulaire. Toutefois, notre protocole expérimental n’a pas été en mesure d’évaluer les effets génomiques associés au remodelage vasculaire utérin durant la gestation et d’autres études devront être effectuées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le gène MLL (Mixed-Lineage Leukemia), un homologue du gène trithorax de la Drosophile, localisé à la bande chromosomique 11q23, est fréquemment réarrangé dans plusieurs types de leucémies, essentiellement suite à des translocations chromosomiques. Dans les différentes translocations chromosomiques, la partie N-terminale de MLL est fusionnée avec les séquences d’un gène partenaire. Malgré le grand nombre de partenaires de fusion rapportés, peu de fusions MLL ont été bien caractérisées sur le plan moléculaire. De plus, l’impact pronostique de plusieurs fusions moins fréquentes n’est pas bien établi. L’objectif de mon projet est de caractériser plusieurs translocations MLL qui ont été détectées dans 39 spécimens leucémiques collectés par la Banque de cellules leucémiques du Québec (www.bclq.gouv.qc.ca), et d’établir une corrélation entre les résultats de la cytogénétique et différents paramètres biologiques et cliniques des leucémies respectives. L’identification des gènes partenaires de fusion (GPF) dans notre série (30 échantillons étudiés), a révélé la fusion de MLL à un gène partenaire très récurrent dans 26 leucémies: MLLT3(AF9), AFF1(AF4), MLLT4(AF6), MLLT1(ENL), ELL; à un GPF modérément commun dans 1 leucémie : MLLT6(AF17); et à un partenaire rare de MLL dans 3 leucémies : GAS7 et AF15/CASC5 (2 cas). Nous avons poursuivi notre travail avec la caractérisation des points de cassure de deux fusions, soit MLL-ELL associée à un syndrome myéloprolifératif (une association rare), et MLL-GAS7 (une fusion rare de MLL), associée à une leucémie aiguë myéloïde. L’analyse des transcrits de fusion par RT-PCR et séquençage a révélé respectivement la fusion de l’exon 9 de MLL à l’exon 2 de ELL et des exons 7 ou 8 de MLL (deux transcrits) à l’exon 2 de GAS7. Ce travail permettra d’effectuer des études fonctionnelles et des projets de recherche translationnelle en utilisant ces spécimens de leucémies avec différents réarrangements de MLL, bien caractérisés sur le plan clinique et moléculaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette étude était d’évaluer les qualifications de performance du système FlexiWare® chez le rat male Sprague Dawley et le singe Cynomolgus éveillés, ainsi que chez le chien Beagle éveillé et anesthésié, suite à l’administration de produits ayant une activité pharmacologique connue. Les produits utilisés incluaient l’albutérol administré par inhalation, la méthacholine, et le rémifentanil administrés par voie intraveineuse. Une solution saline administré par voie intraveneuse, a été utilisée comme substance témoin. Différentes variables ont servi à évaluer la réponse des animaux (rats, chien, singe). Ces dernières comprenaient la fréquence respiratoire (RR), le volume courant (TV), la ventilation minute (MV). Des paramètres additionnels ont été évalués chez le rat, soit les temps d’inspiration (IT) et d’expiration (ET), le temps du pic de débit expiratoire, les pics de débits inspiratoire et expiratoire, le ratio inspiratoire:expiratoire (I:E), le ratio inspiratoire sur respiration totale (I:TB), et l’écoulement expiratoire moyen (EF50). Les résultats obtenus ont démontré que le système FlexiWare® était suffisamment sensible et spécifique pour dépister, chez les espèces animales utilisées, les effets bronchodilateur, bronchoconstricteur et dépresseur central des substances testées. Il pourrait faire partie des méthodes (ICH 2000) utilisées en pharmacologie de sécurité lors de l’évaluation de substances pharmacologiques sur le système respiratoire des animaux de laboratoire. Les espèces animales utilisées ont semblé s’adapter aisément aux procédures de contention. Les paramètres évalués, RR, TV et MV ont permis de caractériser la réponse des animaux suite à l’administration de produits pharmacologiques à effets connus, judicieusement complétés par les variables de débit. L’ajout de paramètres du temps n’était pas primordiale pour détecter les effets des drogues, mais offre des outils complémentaires d’interpréter les changements physiologiques. Cependant, chez le rat conscient, la période d’évaluation ne devrait pas s’étendre au-delà d’une période de deux heures post traitement. Ces études constituent une évaluation des qualifications de performance de cet appareil et ont démontré de manière originale, la validation concurrentielle, en terme de précision (sensibilité et spécificité) et fiabilité pour différentes variables et sur différentes espèces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les données manquantes sont fréquentes dans les enquêtes et peuvent entraîner d’importantes erreurs d’estimation de paramètres. Ce mémoire méthodologique en sociologie porte sur l’influence des données manquantes sur l’estimation de l’effet d’un programme de prévention. Les deux premières sections exposent les possibilités de biais engendrées par les données manquantes et présentent les approches théoriques permettant de les décrire. La troisième section porte sur les méthodes de traitement des données manquantes. Les méthodes classiques sont décrites ainsi que trois méthodes récentes. La quatrième section contient une présentation de l’Enquête longitudinale et expérimentale de Montréal (ELEM) et une description des données utilisées. La cinquième expose les analyses effectuées, elle contient : la méthode d’analyse de l’effet d’une intervention à partir de données longitudinales, une description approfondie des données manquantes de l’ELEM ainsi qu’un diagnostic des schémas et du mécanisme. La sixième section contient les résultats de l’estimation de l’effet du programme selon différents postulats concernant le mécanisme des données manquantes et selon quatre méthodes : l’analyse des cas complets, le maximum de vraisemblance, la pondération et l’imputation multiple. Ils indiquent (I) que le postulat sur le type de mécanisme MAR des données manquantes semble influencer l’estimation de l’effet du programme et que (II) les estimations obtenues par différentes méthodes d’estimation mènent à des conclusions similaires sur l’effet de l’intervention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La neurogenèse persiste à l’âge adulte dans deux régions du système nerveux central (SNC) des mammifères : la zone sous-ventriculaire (SVZ) du cerveau antérieur et la zone sous-granulaire (SGZ) de l’hippocampe. Cette neurogenèse est possible grâce à la capacité de prolifération des cellules souches présentes dans les niches de la SVZ et la SGZ, mais en vieillissant, le cerveau subit une diminution dramatique du nombre de cellules souches neurales adultes (CSNa), une diminution de la prolifération cellulaire et une altération des niches de neurogenèse. Cependant, une importante question reste sans réponse : comment la perte tardive des CSNa est temporellement reliée aux changements de l’activité de prolifération et de la structure de la principale niche de neurogenèse (la SVZ)? Afin d’avoir un aperçu sur les événements initiaux, nous avons examiné les changements des CSNa et de leur niche dans la SVZ entre le jeune âge et l’âge moyen. La niche de la SVZ des souris d’âge moyen (12 mois) subit une réduction de l’expression des marqueurs de plusieurs sous-populations de précurseurs neuraux en comparaison avec les souris jeunes adultes (2 mois). Anatomiquement, cela est associé avec des anomalies cytologiques, incluant une atrophie générale de la SVZ, une perte de la couche de cellules sousépendymaires par endroit et l’accumulation de gouttelettes lipidiques de grande taille dans l’épendyme. Fonctionnellement, ces changements sont corrélés avec une diminution de l’activité de la SVZ et une réduction du nombre de nouveaux neurones arrivant aux bulbes olfactifs. Pour déterminer si les CSNa de la SVZ ont subi des changements visibles, nous avons évalué les paramètres clés des CSNa in vivo et in vitro. La culture cellulaire montre qu’un nombre équivalent de CSNa ayant la capacité de former des neurosphères peut être isolé du cerveau du jeune adulte et d’âge moyen. Cependant, à l’âge moyen, les précurseurs neuraux semblent moins sensibles aux facteurs de croissance durant leur différenciation in vitro. Les CSNa donnent des signes de latence in vivo puisque leur capacité d’incorporation et de rétention du BrdU diminue. Ensemble, ces données démontrent que, tôt dans le processus du vieillissement, les CSNa et leur niche dans la SVZ subissent des changements significatifs, et suggèrent que la perte de CSNa liée au vieillissement est secondaire à ces événements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Souvent laissée pour contre par les théoriciens, longtemps associée à la littérature populaire, la littérature fantastique a su depuis se tailler une place parmi les grands genres de la littérature. Depuis le milieu du XXe siècle, les chercheurs et le public découvrent ou redécouvrent un genre qui a toujours fait parti du paysage littéraire. Une œuvre majeure contribuera à la redécouverte scientifique du genre : Écrite en 1970 l’œuvre de Tzvetan Todorov Introduction à la littérature fantastique donne tant au néophyte qu’au chercheur un ouvrage qui trouve encore des échos aujourd’hui. Sa définition du fantastique, son approche du rôle du narrateur et du lecteur sont une référence, un point de départ et surtout un incontournable pour ceux et celles qui désirent comprendre et apprendre le fantastique. Dans ce mémoire, nous nous concentrerons particulièrement sur le rôle et la problématique du narrateur dans l’œuvre de deux représentants majeurs de la littérature fantastique de langue allemande du début du XXe siècle : Leo Perutz (1882-1957) et Alexander Lernet-Holenia (1897-1976). Le narrateur semble jouer un rôle prédominant dans la littérature fantastique. En effet, par son discours souvent présenté au « je », il semble créer une dynamique très particulière : il manipule son propre discours, il agit sur le lecteur en étant narrateur et personnage dans le récit, il crée une tension entre les différentes couches narratives par son état instable. Bref, il semble contribuer à l’apparition du fantastique dans le texte et également provoquer une certaine hésitation chez le lecteur. Le texte joue également un rôle : Leo Perutz produit un modèle de texte qui semble marquer aussi son collègue Alexander Lernet-Holenia. La structure presque mathématique des textes de Perutz rappelle que le fantastique peut jouer même à l’intérieur de paramètres rigides avec l’ordre et le chaos, les frontières entre le réel et le rêve. Nous étudierons des œuvres de Leo Perutz et d’Alexander Lernet-Holenia qui ont été publiées entre 1915 et 1937. Les théories qui serviront à appuyer mon travail sont tirées entre autre des études de Tzvetan Todorov et Uwe Durst sur la littérature fantastique et de Gérard Genette sur le narrateur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude vise à évaluer l’impact de l’état nutritionnel et de son évolution durant l’attente d’une transplantation pulmonaire sur la mortalité et la morbidité postopératoire. Nous avons examiné les 209 dossiers de patients greffés pulmonaires au Programme de Transplantation Pulmonaire du CHUM entre 2000 et 2007 et regardé la mortalité et les complications post-transplantation en fonction de l’IMC, des apports protéino-énergétiques, de certains paramètres biochimiques et selon l’évolution pondérale durant la période d’attente. Les résultats montrent que la mortalité augmente en fonction de l’augmentation des strates d’IMC avec un risque relatif de décès au cours du séjour hospitalier de 3,31 (IC95% 1,19-9,26) pour un IMC 25-29,9 et de 8,83 (IC95% 2,98-26,18) pour un IMC ≥ 30 avec une issue postopératoire plus sombre en terme de complications chirurgicales (p=0,003), de durée de séjour aux soins intensifs (p=0,031) et de durée de séjour à l’hôpital (p<0,001) chez les patients avec IMC ≥ 30 comparativement aux patients de poids normal. Les patients ayant présenté une évolution inadéquate de l’IMC durant la période d’attente ont connu une durée de séjour hospitalier prolongée (p=0,015). Ceux dont les apports nutritionnels étaient sous-optimaux en pré-greffe ont aussi connu une durée de séjour hospitalier prolongée (p=0,002) et davantage de complications infectieuses (p=0,038), digestives (p=0,003) et chirurgicales (p=0,029) mais sans impact détectable sur la mortalité. Nos résultats suggèrent que l’obésité et l’embonpoint ainsi qu’une évolution inadéquate de l’IMC durant la période d’attente de même que des apports protéino-énergétiques sous-optimaux affectent négativement l’issue d’une transplantation pulmonaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La proprotéine convertase subtilisine/kexine-9 (PCSK9) a été identifiée comme le troisième locus impliqué dans l’hypercholestérolémie autosome dominante (ADH). Les deux autres gènes impliqués dans l’ADH encodent le récepteur des lipoprotéines de faible densité (LDLR) et l’apolipoprotéine B. La PCSK9 est une convertase qui favorise la dégradation du LDLR dans les hépatocytes et augmente le niveau plasmatique de cholestérol des LDL (LDL-C). Les mutations « gain de fonction » de la PCSK9 sont associées à un phénotype d’hypercholestérolémie familiale, tandis que les variantes « perte de fonction » sont associées à un LDL-C réduit et à un risque coronarien plus faible. Pour élucider le rôle physiologique de la PCSK9, nous avons étudié sa régulation génique. En utilisant le RT-PCR quantitatif dans des hépatocytes humains, nous avons analysé la régulation de PCSK9 sous différentes conditions modulant l’expression des gènes impliqués dans le métabolisme du cholestérol. Nous avons démontré que l’expression de la PCSK9 était induite par les statines de manière dose-dépendante et que cette induction était abolie par le mévalonate. De plus, le promoteur de PCSK9 contenait deux motifs conservés pour la régulation par le cholestérol : le sterol regulatory element (SRE) et un site Sp1. La PCSK9 circule dans le plasma sous des formes mature et clivée par la furine. Grâce à notre anticorps polyclonal, nous avons mis au point un test ELISA mesurant la PCSK9 plasmatique totale. Une étude transversale a évalué les concentrations plasmatiques de PCSK9 chez des sujets sains et hypercholestérolémiques, traités ou non par des statines ou une combinaison statine/ezetimibe. Chez 254 sujets sains, la valeur moyenne de PCSK9 (écart-type) était de 89,5 (31,9) µg/L. La concentration plasmatique de la PCSK9 corrélait avec celle de cholestérol total, du LDL-C, des triglycérides (TG), de la glycémie à jeun, l’âge et l’indice de masse corporelle. Le séquençage de PCSK9 chez des sujets aux extrêmes de la distribution des concentrations de PCSK9 de notre cohorte a révélé la présence d’une nouvelle variation « perte de fonction » : R434W. Chez 200 patients hypercholestérolémiques, la concentration de PCSK9 était plus élevée que chez les sujets sains (P<0,04). Elle a augmenté avec une dose croissante de statine (P<0,001), et a augmenté encore plus suite à l’ajout d’ezetimibe (P<0,001). Chez les patients traités, ceux présentant une hypercholestérolémie familiale (HF; due à une mutation du LDLR) avaient des concentrations plus élevées de PCSK9 que les non-HF (P<0,005), et la réduction de LDL-C corrélait positivement avec la concentration de PCSK9 atteinte de la même manière dans les deux sous-catégories (P<0,02 et P<0,005, respectivement). Par ailleurs, une incubation des cellules HepG2 (hépatocytes) et Caco-2 (entérocytes) avec de l’ezetimibe a provoqué une augmentation de l’ARNm de PCSK9 et de NPC1L1 de 1,5 à 2 fois (P<0,05), mais aucune variation significative de PCSK9 sécrétée n’a été observée, suggérant que ces lignées cellulaires ne sont pas un modèle idéal. Nous avons également mesuré le niveau de PCSK9 chez 1 739 Canadiens-français âgés de 9, 13 et 16 ans. La valeur moyenne (écart-type) de PCSK9 dans cette cohorte était de 84,7 (24,7) µg/L, légèrement plus basse que dans la cohorte d’adultes (89,5 (31,9) µg/L). Chez les garçons, la PCSK9 circulante diminuait avec l’âge, tandis que c’était l’inverse chez les filles. Il y avait des associations positives et significatives entre la PCSK9 et la glycémie à jeun, l’insulinémie, le HOMA-IR, et les paramètres lipidiques (TC, LDL-C, TG, HDL-C, apoAI et apoB). Dans l’analyse multivariée, une hausse de 10% de l’insulinémie à jeun était associée à une augmentation de 1 à 2% de PCSK9. La régulation de PCSK9 est typique de celle d’un gène impliqué dans le métabolisme des lipoprotéines et est probablement la cible du facteur de transcription «sterol regulatory element-binding protein » (SREBP-2). La concentration plasmatique de la PCSK9 est associée avec l’âge, le sexe, et de multiples marqueurs métaboliques chez les enfants et les adultes. La détection de la PCSK9 circulante chez les sujets HF et non-HF signifie que ce test ELISA spécifique à PCSK9 pourrait servir à suivre la réponse à la thérapie chez un grand éventail de sujets. PCSK9 semble être une cible thérapeutique prometteuse dans le traitement de l’hypercholestérolémie et de la maladie cardiovasculaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Placer une charge au niveau du membre inférieur est une approche sans fondement scientifique, utilisée par les cliniciens, pour renforcer certains muscles clés de la marche. Cette étude a déterminé les modifications du patron de marche lors de l’ajout d’une charge à la cheville parétique ou non parétique chez des personnes ayant une hémiparésie suite à un accident vasculaire cérébral et a comparé les résultats à ceux d’un groupe témoin. Il est supposé qu’une charge placée à la jambe parétique/non dominante (charge ipsilatérale) augmenterait les efforts (moments et puissance) à la hanche parétique/non dominante lors de l’oscillation et qu’une charge placée controlatéralement augmenterait les efforts lors de la phase d’appui principalement pour les abducteurs de hanche stabilisant le bassin dans le plan frontal. La marche avec et sans charge de cinq individus hémiparétiques chroniques et 5 personnes en santé a été analysée en laboratoire par l’enregistrement des forces de réaction du sol et des mouvements des membres inférieurs. Ces informations ont permis de calculer les paramètres temps-distance, les angles à la hanche parétique/non dominante et au tronc, les moments nets, les puissances et le travail mécanique à la hanche parétique/non dominante. Des tests statistiques non-paramétriques ont servi à déterminer l’effet de la condition, avec charge (ipsi- et controlatérale) ou sans charge et à comparer les résultats entre les deux groupes. L’ajout d’une charge n’a pas modifié la vitesse de marche des sujets. Les phases d’appui et d’oscillation étaient rendus plus symétriques par la charge, même si peu de différences apparaissaient dans le plan sagittal avec ou sans la charge. Dans le plan frontal, le moment abducteur de hanche des sujets hémiparétiques a diminué avec la charge controlatérale, tandis qu'il a augmenté chez les sujets en santé. L’utilisation d’une stratégie posturale ou dynamique au tronc pourrait expliquer la différence de l’effet de la charge sur le moment abducteur à la hanche. Au vu de ces résultats, il est nécessaire de poursuivre l’évaluation de cette approche de renforcement musculaire spécifique à la tâche avant d’en recommander son utilisation.