999 resultados para modèles à volatilité stochastique par fonctions propres
Resumo:
La protéine d’échafaudage Gab1 amplifie la signalisation de plusieurs récepteurs à fonction tyrosine kinase (RTK). Entre autres, elle promeut la signalisation du VEGFR2, un RTK essentiel à la médiation de l’angiogenèse via le VEGF dans les cellules endothéliales. En réponse au VEGF, Gab1 est phosphorylé sur tyrosine, ce qui résulte en la formation d’un complexe de protéines de signalisation impliqué dans le remodelage du cytosquelette d’actine et la migration des cellules endothéliales. Gab1 est un modulateur essentiel de l’angiogenèse in vitro et in vivo. Toutefois, malgré l’importance de Gab1 dans les cellules endothéliales, les mécanismes moléculaires impliqués dans la médiation de ses fonctions, demeurent mal définis et la participation du second membre de la famille, Gab2, reste inconnue. Dans un premier temps, nous avons démontré que tout comme Gab1, Gab2 est phosphorylé sur tyrosine, qu’il s’associe de façon similaire avec des protéines de signalisation et qu’il médie la migration des cellules endothéliales en réponse au VEGF. Cependant, contrairement à Gab1, Gab2 n’interagit pas avec le VEGFR2 et n’est pas essentiel pour l’activation d’Akt et la promotion de la survie cellulaire. En fait, nous avons constaté que l’expression de Gab2 atténue l’expression de Gab1 et l’activation de la signalisation médiée par le VEGF. Ainsi, Gab2 semble agir plutôt comme un régulateur négatif des signaux pro-angiogéniques induits par Gab1. La migration cellulaire est une des étapes cruciales de l’angiogenèse. Nous avons démontré que Gab1 médie l’activation de la GTPase Rac1 via la formation et la localisation d’un complexe protéique incluant la GEF VAV2, la p120Caténine et la Cortactine aux lamellipodes des cellules endothéliales en réponse au VEGF. De plus, nous montrons que l’assemblage de ce complexe corrèle avec la capacité du VEGF à induire l’invasion des cellules endothéliales et le bourgeonnement de capillaires, deux phénomènes essentiels au processus angiogénique. La régulation des RhoGTPases est également régulée par des inactivateurs spécifiques les « Rho GTPases activating proteins », ou GAPs. Nous décrivons ici pour la première fois le rôle de la GAP CdGAP dans les cellules endothéliales et démontrons son importance dans la médiation de la signalisation du VEGF via la phosphorylation sur tyrosine de Gab1 et l’activation des RhoGTPases Rac1 et Cdc42. Ainsi, dù à son importance sur l’activation de voies de signalisation du VEGF, CdGAP représente un régulateur crucial de la promotion de diverses activités biologiques essentielles à l’angiogenèse telles que la migration cellulaire, et le bourgeonnement de capillaires in vitro et d’aortes de souris ex vivo. De plus, les embryons de souris CdGAP KO présentent des hémorragies et de l’œdème, et ces défauts vasculaires pourraient être responsables de la mortalité de 44% des souris CdGAP knock-out attendues. Nos études amènent donc une meilleure compréhension des mécanismes moléculaires induits par le VEGF et démontrent l’implication centrale de Gab1 et des régulateurs des RhoGTPases dans la promotion de l’angiogenèse. Cette meilleure compréhension pourrait mener à l’identification de nouvelles cibles ou approches thérapeutiques afin d’améliorer le traitement des patients souffrant de maladies associées à une néovascularisation incontrôlée telles que le cancer.
Resumo:
Le premier membre de la famille des rétrovirus humains HTLV (Virus T-lymphotropique Humain), HTLV-1, a été découvert en 1980 et l’on estime aujourd’hui à plus de 10 millions le nombre d’individus infectés à travers le monde. Après une période de latence d’environ 40 ans, 5% des individus infectés développent des leucémies, des lymphomes adultes de lymphocytes T (ATLL) ou encore une myélopathie associée à HTLV-1/ paraparésie spastique tropicale (HAM/TSP). L’apparition de la maladie serait en grande partie orchestrée par deux protéines virales, soit Tax et HTLV-1 bZIP factor (HBZ). L’expression du génome viral se fait à partir d’un transcrit sens de pleine longueur suite à un épissage alternatif, à l’exception du gène HBZ. HBZ est produite à partir d’un transcrit antisens initié dans la séquence terminale longue répétée (LTR)’3. Elle a été décrite comme étant capable de réguler négativement la transcription virale dépendante de Tax en se dimérisant avec des facteurs de transcription cellulaires tels que CREB-2 et certains membres de la famille Jun. HBZ a aussi un pouvoir prolifératif et bien que nous ne sachions toujours pas le mécanisme moléculaire menant à l’oncogenèse par HBZ, nous savons qu’elle module une multitude de voies de transduction de signaux, dont AP-1. Nous avons récemment mis en évidence un transcrit antisens nommé Antisense Protein of HTLV-2 (APH-2) chez HTLV-2 qui n’est associé qu’à une myélopathie apparentée au HAM/TSP. Ce n’est qu’en 2005 que HTLV-3 et HTLV-4 se sont rajoutés au groupe HTLV. Cependant, aucune corrélation avec le développement d’une quelconque maladie n’a été montrée jusqu’à ce jour. Le premier volet de ce projet de doctorat avait pour objectif de détecter et caractériser les transcrits antisens produits par HTLV-3 et HTLV-4 et d’étudier les protéines traduites à partir de ces transcrits pour ainsi évaluer leurs similitudes et/ou différences avec HBZ et APH-2. Nos études de localisation cellulaire réalisées par microscopie confocale ont montré que APH-3 et APH-4 sont des protéines nucléaires, se retrouvant sous la forme de granules et, dans le cas d’APH-3, partiellement cytoplasmique. Ces granules co-localisent en partie avec HBZ. Les analyses à l’aide d’un gène rapporteur luciférase contenant le LTR 5’ de HTLV-1 ont montré que APH-3 et APH-4 peuvent aussi inhiber la transactivation du LTR 5’ par Tax. Aussi, des études faisant appel au gène rapporteur précédé d’un promoteur de collagénase (site AP-1), ont montré que ces deux protéines, contrairement à HBZ, activent la transcription dépendante de tous les membres des facteurs de transcription de la famille Jun. De plus, les mutants ont montré que le motif fermeture éclair (LZ) atypique de ces protéines est impliqué dans cette régulation. En effet, APH-3 et APH-4 modulent la voie Jun-dépendante en se dimérisant via leur LZ atypique avec la famille Jun et semblent activer la voie par un mécanisme ne faisant pas par d’un domaine activateur autonome. Dans un deuxième volet, nous avions comme objectif d’approfondir nos connaissances sur la localisation nucléolaire de HBZ. Lors de nos analyses, nous avons identifié deux nouveaux partenaires d’interaction, B23 et la nucléoline, qui semblent être associés à sa localisation nucléolaire. En effet, ces interactions sont plus fortes suivant une délétion des domaines AD et bZIP de HBZ qui dans ce cas est localisée strictement au nucléole. De plus, bien que APH-3 et APH-4 puissent se localiser aux nucléoles, HBZ est la seule protéine traduite à partir d’un transcrit antisens pouvant interagir avec B23. Finalement, ces travaux ont clairement mis en évidence que HTLV-3 et HTLV-4 permettent la production de transcrits antisens comme chez d’autres rétrovirus. Les protéines traduites à partir de ces transcrits antisens jouent d’importants rôles dans la réplication rétrovirale mais semblent avoir des fonctions différentes de celles de HBZ au niveau de la régulation de la transcription de la voie Jun. HBZ semble aussi jouer un rôle unique dans le nucléole en ciblant les protéines nucléolaires de la cellule. Ces études démontrent que les protéines produites à partir de transcrits antisens chez les rétrovirus HTLV partagent plusieurs ressemblances, mais démontrent aussi des différences. Ainsi, les APH pourraient, en tant qu’outil comparatif, aider à mieux cibler les mécanismes moléculaires importants utilisés par HBZ pour induire la pathogénèse associée à une infection par HTLV.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Ce mémoire propose une hypothèse alternative pour expliquer les facteurs à l’origine du boom du soja brésilien. En utilisant une approche combinant la théorie de l’organisation et l’économie politique institutionnelle, ce mémoire propose de comparer les modèles d’organisation de la chaîne de valeur soja des États du Mato Grosso et du Paraná. Dans un premier temps, cette recherche est guidée par un souci de documenter les rouages propres à chaque mode d’organisation et de catégoriser ces derniers comme des systèmes à part entière et cohérents. Ainsi, le mode de coordination du Mato Grosso (intégration de la chaîne de valeur) peut être qualifié de modèle hybride se rapprochant davantage du pôle hiérarchie tandis que le mode d’organisation du Paraná (coopérative agroindustrielle) peut être qualifié de mode hybride gravitant davantage vers le pôle marché. La nature des risques est identifiée comme principal déterminant du degré de centralisation de la gouvernance au sein de ces modèles. L’argument soutient que chaque mode de coordination est performant car il est adapté aux conditions locales de production et permet de mitiger les risques propres à chaque région de façon à encourager les échanges économiques. Dans un deuxième temps, cette recherche serait incomplète sans une analyse des facteurs politiques et historiques ayant influencé la trajectoire de développement de chaque région. Ainsi, chaque étude de cas présente un récit détaillé de l’évolution des politiques agraires et des institutions depuis les années 1960, soit le moment où la culture commerciale du soja a commencé à gagner en importance au Brésil. Analyser le changement institutionnel depuis 1960 est primordial pour comprendre comment se sont consolidées les règles du jeu qui sous-tendent aujourd’hui chaque mode de coordination.
Resumo:
Dans le présent article, nous décrivons les trois façons d’organiser la participation publique à l’échelle municipale au Québec. D’une part, le modèle de participation préconisé par la Loi sur l’aménagement et l’urbanisme (LAU) domine l’ensemble des municipalités du Québec. D’autre part, jusqu’en 2002, les deux plus grandes villes de la province, Montréal et Québec, n’étaient pas soumises aux principes de la LAU. Elles ont ainsi développé des dispositifs participatifs originaux : les audiences publiques et les conseils de quartier. À partir des écrits de Fung (2006 et 2003), nous établissons une grille d’analyse qui définit six facteurs relatifs à l’espace participatif et décrivons par la suite les trois modèles de participation publique municipale au Québec. Nous constatons finalement que les regroupements municipaux ont amené une confrontation entre le modèle dominant de participation publique à l’échelle municipale et les modèles de Québec et de Montréal.
Resumo:
Objectif: L'objectif primaire de cette étude était d'évaluer la validité, la fiabilité et la reproductibilité des mesures dentaires obtenues sur les modèles digitaux iTero (Align Technology, San Jose, Californie) et Unitek TMP Digital (3M, Monrovia, Californie) en comparaison avec celles obtenues sur les modèles de plâtre (gold standard). L'objectif secondaire était de comparer les deux différents matériaux à empreinte (l'alginate et le polyvinylsiloxane-PVS) afin de déterminer si le choix du matériau affectait la précision des mesures. Méthodes: Le premier volet de l'étude impliquait les modèles digitaux Unitek et iTero, obtenus à partir de 25 paires de modèles de plâtre choisis de façon randomisée et provenant de la pratique privée d'un des co-auteurs. Des empreintes d'alginate et de PVS ont été prises sur les modèles de plâtre et numérisées par le scanner Unitek. Les modèles ont ensuite été numérisés avec le scanner iTero. Le deuxième volet de l'étude cherchait à comparer les modèles digitaux iTero (numérisation intra-orale) avec les modèles de plâtre (empreintes d'alginate et de PVS) obtenus à partir de 25 patients de la clinique d'orthodontie de l'Université de Montréal ayant besoin d'un traitement orthodontique. Dans les deux volets de l'étude, deux auteurs ont pris les mesures suivantes sur les différents modèles: largeur mésio-distale de chaque dent de la première molaire à l'autre première molaire, le périmètre d'arcade, les distances intermolaire et intercanine, le surplomb vertical et le surplomb horizontal. Les ratios et excès Bolton 6 et 12, l'espace requis et les différentiels d'espace au maxillaire et à la mandibule, ont été calculés. Résultats: La fiabilité (ICC) entre les modèles digitaux (Unitek et iTero) et les modèles de plâtre était bonne à excellente pour toutes les mesures [ICC=0,762–0,998], et la fiabilité entre les deux matériaux à empreinte était excellente [ICC=0,947–0,996]. Dans les deux volets de l'étude, les mesures faites sur les modèles iTero étaient généralement plus grandes que celles faites sur les modèles de plâtre. Les plus grandes différences moyennes pour la comparaison iTero-plâtre étaient trouvées au niveau de l'espace disponible au maxillaire et à la mandibule (systématiquement plus grande pour cette variable), soit 2,24 mm et 2,02 mm respectivement dans le premier volet, et 1,17 mm et 1,39 mm respectivement dans le deuxième volet. Les différences étaient considérées cliniquement non significatives pour toutes les variables. La reproductibilité intra-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux, à l'exception du différentiel d'espace à la mandibule pour les modèles Unitek [ICC=0,690-0,692]. La reproductibilité inter-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux dans les deux volets de l'étude, mais acceptable à modérée pour les modèles Unitek au niveau des analyses Bolton 6 et 12, et des différentiels d'espace au maxillaire et à la mandibule [ICC=0,362-0,548]. Conclusions: La précision et la fiabilité des mesures dentaires faites sur les modèles digitaux Unitek et iTero étaient cliniquement acceptables et reproductibles en comparaison avec les celles faites sur les modèles de plâtre. Le choix de matériel à empreinte entre l'alginate et le PVS n'affectait pas la précision des mesures. Cette étude semble démontrer que les modèles digitaux Unitek et iTero, utilisés avec leur logiciel respectif, sont une alternative fiable et reproductible aux modèles de plâtre pour le diagnostic et l’analyse des modèles orthodontiques.
Resumo:
La sclérose latérale amyothrophique (SLA) est une maladie neurodégénérative charactérisée par la perte des neurones moteurs menant à la paralysie et à la mort. Environ 20% des cas familiaux de la SLA sont causés par des mutations de la superoxyde dismutase 1 (SOD1), conduisant vers un mauvais repliement de la protéine SOD1, ce qui a comme conséquence un gain de fonction toxique. Plusieurs anticorps spécifiques pour la forme mal repliée de la protéine ont été générés et utilisés comme agent thérapeutique dans des modèles précliniques. Comment le mauvais repliement de SOD1 provoque la perte sélective des neurones moteurs demeure non résolu. La morphologie, le bilan énergétique et le transport mitochondrial sont tous documentés dans les modèles de la SLA basés sur SOD1, la détérioration des mitochondries joue un rôle clé dans la dégénération des neurones moteurs. De plus, la protéine SOD1 mal repliée s’associe sélectivement sur la surface des mitochondries de la moelle épinière chez les modèles de rongeurs de la SLA. Notre hypothèse est que l’accumulation de la protéine SOD1 mal repliée sur les mitochondries pourrait nuire aux fonctions mitochondriales. À cette fin, nous avons développé un nouvel essai par cytométrie de flux afin d’isoler les mitochondries immunomarquées avec des anticorps spécifiques à la forme malrepliée de SOD1 tout en évaluant des aspects de la fonction mitochondriale. Cette méthode permettra de comparer les mitochondries portant la protéine SOD1 mal repliée à celles qui ne la portent pas. Nous avons utilisé un anticorps à conformation spécifique de SOD1, B8H10, pour démontrer que la protéine mal repliée SOD1 s’associe avec les mitochondries de la moelle épinière des rat SOD1G93A d’une manière dépendante du temps. Les mitochondries avec la protéine mal repliée SOD1 B8H10 associée à leur surface (B8H10+) ont un volume et une production excessive de superoxyde significativement plus grand, mais possèdent un potentiel transmembranaire comparable aux mitochondries B8H10-. En outre, la présence de la protéine mal repliée SOD1 reconnue par B8H10 coïncide avec des niveaux plus élevés de la forme pro-apoptotique de Bcl-2. L’immunofluorescence de sections de moelle épinière du niveau lombaire avec l’anticorps spécifique à la conformation B8H10 et AMF7-63, un autre anticorps conformationnel spécifique de SOD1, démontre des motifs de localisations distincts. B8H10 a été trouvé principalement dans les neurones moteurs et dans plusieurs points lacrymaux dans tout le neuropile. Inversement, AMF7-63 a marqué les neurones moteurs ainsi qu’un réseau fibrillaire distinctif concentré dans la corne antérieure. Au niveau subcellulaire, SOD1 possèdant la conformation reconnu par AMF7-63 est aussi localisée sur la surface des mitochondries de la moelle épinière d’une manière dépendante du temps. Les mitochondries AMF7-63+ ont une augmentation du volume comparé aux mitochondries B8H10+ et à la sous-population non marquée. Cependant, elles produisent une quantité similaire de superoxyde. Ensemble, ces données suggèrent qu’il y a plusieurs types de protéines SOD1 mal repliées qui convergent vers les mitochondries et causent des dommages. De plus, différentes conformations de SOD1 apportent une toxicité variable vers les mitochondries. Les protéines SOD1 mal repliées réagissant à B8H10 et AMF7-63 sont présentes en agrégats dans les fractions mitochondriales, nous ne pouvons donc pas prendre en compte leurs différents effets sur le volume mitochondrial. Les anticorps conformationnels sont des outils précieux pour identifier et caractériser le continuum du mauvais repliement de SOD1 en ce qui concerne les caractéristiques biochimiques et la toxicité. Les informations présentes dans cette thèse seront utilisées pour déterminer le potentiel thérapeutique de ces anticorps.
Resumo:
Le système hématopoïétique est un tissu en constant renouvellement et les cellules souches hématopoïétiques (CSHs) sont indispensables pour soutenir la production des cellules matures du sang. Deux fonctions définissent les CSHs; la propriété d’auto-renouvellement, soit la capacité de préserver l’identité cellulaire suivant une division, et la multipotence, le potentiel de différenciation permettant de générer toutes les lignées hématopoïétiques. Chez l’adulte, la majorité des CSHs sont quiescentes et l’altération de cet état corrèle avec une diminution du potentiel de reconstitution des CSHs, suggérant que la quiescence protège les fonctions des CSHs. La quiescence est un état réversible et dynamique et les réseaux génétiques le contrôlant restent peu connus. Un nombre croissant d’évidences suggère que si à l’état d’homéostasie il y a une certaine redondance entre les gènes impliqués dans ces réseaux de contrôle, leurs rôles spécifiques sont révélés en situation de stress. La famille des bHLHs (basic helix-loop-helix) inclue différentes classes des protéines dont ceux qui sont tissu-spécifiques comme SCL, et les protéines E, comme E12/E47 et HEB. Certains bHLHs sont proposés êtres important pour la fonction des cellules souches, mais cela ne fait pas l’unanimité, car selon le contexte cellulaire, il y a redondance entre ces facteurs. La question reste donc entière, y a-t-il un rôle redondant entre les bHLHs d’une même classe pour la fonction à long-terme des CSHs? Les travaux présentés dans cette thèse visaient dans un premier temps à explorer le lien encore mal compris entre la quiescence et la fonction des CSHs en mesurant leurs facultés suite à un stress prolifératif intense et dans un deuxième temps, investiguer l’importance et la spécificité de trois gènes pour la fonction des CSHs adultes, soit Scl/Tal1, E2a/Tcf3 et Heb/Tcf12. Pour répondre à ces questions, une approche cellulaire (stress prolifératif) a été combinée avec une approche génétique (invalidation génique). Plus précisément, la résistance des CSHs au stress prolifératif a été étudiée en utilisant deux tests fonctionnels quantitatifs optimisés, soit un traitement basé sur le 5-fluorouracil, une drogue de chimiothérapie, et la transplantation sérielle en nombre limite. Dans la mesure où la fonction d’un réseau génique ne peut être révélée que par une perturbation intrinsèque, trois modèles de souris, i.e. Scl+/-, E2a+/- et Heb+/- ont été utilisés. Ceci a permis de révéler que l’adaptation des CSHs au stress prolifératif et le retour à l’équilibre est strictement contrôlé par les niveaux de Scl, lesquels règlent le métabolisme cellulaire des CSHs en maintenant l’expression de gènes ribosomaux à un niveau basal. D’autre part, bien que les composantes du réseau puissent paraître redondants à l’équilibre, mes travaux montrent qu’en situation de stress prolifératif, les niveaux de Heb restreignent la prolifération excessive des CSHs en induisant la sénescence et que cette fonction ne peut pas être compensée par E2a. En conclusion, les résultats présentés dans cette thèse montrent que les CSHs peuvent tolérer un stress prolifératif intense ainsi que des dommages à l’ADN non-réparés, tout en maintenant leur capacité de reconstituer l’hématopoïèse à long-terme. Cela implique cependant que leur métabolisme revienne au niveau de base, soit celui trouvé à l’état d’homéostasie. Par contre, avec l’augmentation du nombre de division cellulaire les CSHs atteignent éventuellement une limite d’expansion et entrent en sénescence.
Resumo:
Les modèles animaux d’arthrose permettent d’évaluer le potentiel d’agents thérapeutiques en phase préclinique de développement. Le présent ouvrage tient compte du chien comme modèle d’arthrose naturelle (chez l’animal de compagnie) ou expérimentale (par sectionnement chirurgical du ligament croisé crânial). Au sein des expérimentations, la force de réaction au sol verticale maximale, mesurée lors de l’analyse cinétique de la locomotion, est proposée comme témoin d’effets fonctionnels et structuraux sur ces modèles d’arthrose. Sur un modèle canin d’arthrose naturelle, le seuil de changement minimal détectable a été déterminé. Les changements au dysfonctionnement locomoteur peuvent désormais être cernés en s’affranchissant de la marge d’erreur inhérente à la mesure de la force verticale maximale. Il en découle l’identification de répondants lors d’essais cliniques entrepris chez le chien arthrosique. Une analyse rétrospective a, par la suite, déterminé un taux de répondants de 62.8% et d’une taille d’effet de 0.7 pour des approches thérapeutiques actuellement proposées aux chiens arthrosiques. Cette analyse détermina également que la démonstration d’une réponse thérapeutique était favorisée en présence d’un fort dysfonctionnement locomoteur. Sur un modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial, la force verticale maximale a démontré une relation inverse avec certains types de lésions arthrosiques évaluées à l’aide d’imagerie par résonance magnétique. Également, la sensibilité de la force verticale maximale a été mise en évidence envers la détection d’effets structuraux, au niveau de l’os sous-chondral, par un agent anti-résorptif (le tiludronate) sur ce même modèle. Les expérimentations en contexte d’arthrose naturelle canine permettent de valider davantage les résultats d’essais cliniques contrôlés utilisant la force verticale maximale comme critère d’efficacité fonctionnelle. Des évidences cliniques probantes nécessaires à la pratique d’une médecine basée sur des faits sont ainsi escomptées. En contexte d’arthrose expérimentale, la pertinence d’enregistrer le dysfonctionnement locomoteur est soulignée, puisque ce dernier est en lien avec l’état des structures. En effectuant l’analyse de la démarche, de pair avec l’évaluation des structures, il est escompté de pouvoir établir la répercussion de bénéfices structurels sur l’inconfort articulaire. Cet ouvrage suggère qu’une plateforme d’investigations précliniques, qui combine le modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial à un essai clinique chez le chien arthrosique, soit un moyen de cerner des bénéfices structuraux ayant des impacts fonctionnels. Le potentiel inférentiel de ces modèles canins d’arthrose vers l’Homme serait ainsi favorisé en utilisant la force verticale maximale.
Resumo:
Dans ce mémoire, je considère un modèle de sélection standard avec sélection non aléatoire. D’abord, je discute la validité et la ‘‘sharpness ’’ des bornes sur l’intervalle interquantile de la distribution de la variable aléatoire latente non censurée, dérivées par Blundell et al. (2007). Ensuite, je dérive les bornes ‘‘sharp ’’ sur l’intervalle interquantile lorsque la distribution observée domine stochastiquement au premier ordre celle non observée. Enfin, je discute la ‘‘sharpness’’ des bornes sur la variance de la distribution de la variable latente, dérivées par Stoye (2010). Je montre que les bornes sont valides mais pas nécessairement ‘‘sharp’’. Je propose donc des bornes inférieures ‘‘sharp’’ pour la variance et le coefficient de variation de ladite distribution.
Resumo:
Une revue des modèles explicatifs de l’agression sexuelle (développementaux, typologiques, processus de passage à l’acte) permet de mettre en évidence la place centrale occupée par la déviance et l’hypersexualité dans les études portant sur les agresseurs sexuels. L’étude présentée dans ce mémoire investigue la sexualité des agresseurs sexuels de femmes adultes extrafamiliaux sous ses facettes déviantes et non-déviantes afin d’évaluer l’hétérogénéité des styles de vie sexuelle des violeurs. Les caractéristiques psychosexuelles et délictuelles de 160 violeurs incarcérés au Québec (Canada) ont été investiguées. Une analyse de classe latente, suivie d’une analyse factorielle, ont permis d’identifier trois styles de vie sexuelle distincts : le Déviant Internalisé (DI), le Sans Problèmes Sexuels (SPS), et l’Hypersexuel Déviant (HD). Les résultats suggèrent que les DI sont caractérisées par une insatisfaction sexuelle, la déviance sexuelle, ainsi que par la pauvreté de leur vie sexuelle. Les SPS sont caractérisés par une absence de déviance sexuelle et d’hypersexualité. Leurs distorsions cognitives, plutôt que leur style de vie sexuelle, semblent favoriser leur passage à l’acte. Finalement, les agresseurs HD sont caractérisés par l’hypersexualité, de même que par leur déviance sexuelle, lesquels favorisent leurs comportements sexuellement coercitifs. Les implications cliniques et théoriques seront discutées.
Resumo:
L’avancement en âge est associé à plusieurs modifications cognitives, dont un déclin des capacités à mémoriser et/ou à rappeler les événements vécus personnellement. Il amène parallèlement une augmentation des faux souvenirs, c.-à-d. le rappel d’événements qui ne se sont pas réellement déroulés. Les faux souvenirs peuvent avoir d’importantes répercussions dans la vie quotidienne des personnes âgées et il importe donc de mieux comprendre ce phénomène en vieillissement normal. Des études ont démontré l’importance de la fonction des lobes temporaux médians (FTM)/mémoire et de la fonction des lobes frontaux (FF)/fonctions exécutives dans l’effet de faux souvenirs. Ainsi, la première étude de la thèse visait à valider en français une version adaptée d’une méthode proposée par Glisky, Polster, & Routhieaux (1995), permettant de mesurer ces fonctions cognitives (Chapitre 2). L’analyse factorielle de cette étude démontre que les scores neuropsychologiques associés à la mémoire se regroupent en un facteur, le facteur FTM/mémoire, alors que ceux associés aux fonctions exécutives se regroupent en un deuxième facteur, le facteur FF/fonctions exécutives. Des analyses « bootstrap » effectuées avec 1 000 ré-échantillons démontrent la stabilité des résultats pour la majorité des scores. La deuxième étude de cette thèse visait à éclairer les mécanismes cognitifs (FTM/mémoire et FF/fonctions exécutives) ainsi que théoriques de l’effet de faux souvenirs accru en vieillissement normal (Chapitre 3). La Théorie des Traces Floues (TTF; Brainerd & Reyna, 1990) propose des explications de l’effet de faux souvenirs pour lesquelles la FTM/mémoire semble davantage importante, alors que celles proposées par la Théorie de l’Activation et du Monitorage (TAM; Roediger, Balota, & Watson, 2001) sont davantage reliées à la FF/fonctions exécutives. Les tests neuropsychologiques mesurant la FTM/mémoire ainsi que ceux mesurant la FF/fonctions exécutives ont été administrés à 52 participants âgés (moyenne de 67,81 ans). Basé sur l’étude de validation précédente, un score composite de la FTM/mémoire et un score composite de la FF/fonctions exécutives ont été calculés pour chaque participant. Ces derniers ont d’abord été séparés en deux sous-groupes, un premier au score FTM/mémoire élevé (n = 29, âge moyen de 67,45 ans) et un deuxième au score FTM/mémoire faible (n = 23, âge moyen de 68,26 ans) en s’assurant de contrôler statistiquement plusieurs variables, dont le score de la FF/fonctions exécutives. Enfin, ces participants ont été séparés en deux sous-groupes, un premier au score FF/fonctions exécutives élevé (n = 26, âge moyen 68,08 ans) et un deuxième au score FF/fonctions exécutives faible (n = 25, âge moyen de 67,36 ans), en contrôlant les variables confondantes, dont le score de la FTM/mémoire. Les proportions de vraie et de fausse mémoire (cibles et leurres associatifs) ont été mesurées à l’aide d’un paradigme Deese-Roediger et McDermott (DRM; Deese, 1959; Roediger & McDermott, 1995), avec rappel et reconnaissance jumelée à une procédure « Je me souviens / Je sais » (Tulving, 1985) chez les 52 participants âgés ainsi que chez 22 jeunes (âge moyen de 24,59 ans), apparié pour les années de scolarité. D’abord, afin de tester l’hypothèse de la TTF (Brainerd & Reyna, 1990), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FTM/mémoire. Ensuite, afin de tester l’hypothèse de la TAM (Roediger et al., 2001), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FF/fonctions exécutives. Il s’agit de la première étude qui compare directement ces hypothèses à travers de nombreuses mesures de vraie et de fausse mémoire. Les résultats démontrent que seule la FTM/mémoire modulait l’effet d’âge en vraie mémoire, et de manière quelque peu indirecte, en fausse mémoire et dans la relation entre la vraie et la fausse remémoration. Ensuite, les résultats démontrent que seule la FF/fonctions exécutives jouerait un rôle dans la fausse reconnaissance des leurres associatifs. Par ailleurs, en des effets d’âge sont présents en faux rappel et fausse remémorations de leurres associatifs, entre les jeunes adultes et les personnes âgées au fonctionnement cognitif élevé, peu importe la fonction cognitive étudiée. Ces résultats suggèrent que des facteurs autres que la FTM/mémoire et la FF/fonctions exécutives doivent être identifiés afin d’expliquer la vulnérabilité des personnes âgées aux faux souvenirs. Les résultats de cette thèse sont discutés à la lumière des hypothèses théoriques et cognitives en faux souvenirs (Chapitre 4).
Resumo:
Comme la plupart des villes en Afrique subsaharienne, Ouagadougou, capitale du Burkina Faso, a connu au cours de ces dernières décennies une croissance démographique rapide. Cette situation pose de nombreux problèmes d’ordre sanitaire et environnemental. Pourtant, les liens entre la santé et l’environnement immédiat sont encore faiblement étudiés du fait de la qualité des données qui, lorsqu’elles existent, se révèlent peu appropriées. La présente thèse vise à analyser les liens entre l’environnement immédiat et certains symptômes de maladies, plus spécifiquement la fièvre et la diarrhée ; deux problèmes majeurs de santé liés à l’environnement chez les enfants de moins de 5 ans dans les villes d’Afrique subsaharienne. Cette étude se base sur des données de l’Observatoire de population de Ouagadougou (OPO) recueillies entre 2009 et 2010 dans l’objectif d’étudier les inégalités de santé en milieu urbain (notamment les données de l’enquête santé portant sur 950 enfants de moins de 5 ans recueillies en 2010). La thèse décrit d’abord la santé environnementale en milieu urbain en dépassant l’opposition classique quartiers lotis/quartiers non lotis (zones d’habitation formelles/zones d’habitation informelles). Elle s’intéresse ensuite à l’évaluation plus fine des liens entre l’environnement immédiat et la fièvre en tenant compte des facteurs démographiques et socio-économiques pertinents dans l’estimation. Enfin, la thèse approfondit les analyses sur la co-occurrence de la diarrhée et de la fièvre en mettant en évidence les effets conjoints des facteurs environnementaux et démographiques. À l’aide des analyses spatiales basées sur la distance euclidienne, des analyses factorielles et de classification, cette étude décrit le contexte sanitaire des quartiers formels et informels et analyse la pertinence de la dichotomie entre les quartiers lotis et les quartiers non lotis dans les zones suivies par l’OPO. L’étude effectue également des analyses multivariées en recourant respectivement aux modèles logit simple et ordonné pour estimer les effets propres de l’environnement immédiat sur la fièvre et la co-occurrence de la diarrhée et de la fièvre chez les enfants. Les résultats de l’étude montrent que les risques environnementaux sont variables d’un quartier à l’autre, et que les quartiers lotis bien qu’étant les plus pourvus en services urbains de base sont les plus exposés aux dangers environnementaux. Néanmoins, ce constat ne suffit pas pour rendre compte de la vulnérabilité des enfants dans les quartiers lotis que dans les quartiers non lotis, puisque l’accès à l’eau, l’assainissement, la nature du sol, et le niveau d’éducation de la mère sont des facteurs clés dans l’occurrence des symptômes liés à l’environnement immédiat. On note également une hétérogénéité concernant la santé environnementale, notamment dans les zones non loties. En considérant les effets de l’environnement immédiat sur la fièvre chez les enfants, les résultats montrent que ces effets baissent après la prise en compte des variables démographiques, socio-économiques et du quartier de résidence. Les facteurs de l’environnement tels que la gestion des ordures ménagères et celle des eaux usées discriminent significativement la fièvre. Les enfants à Nioko 2 (quartier non loti), par exemple, ont deux fois plus de risque d’avoir eu de la fièvre par rapport à Kilwin (quartier loti). Les effets conjoints des facteurs environnementaux et démographiques sont également mis en exergue dans la co-occurrence de la diarrhée et de la fièvre, même si ces effets diminuent régulièrement avec le nombre des symptômes chez les enfants. Le fait d’être dans un ménage insalubre ou d’avoir le sol extérieur en terre augmente la propension de co-occurrence de la diarrhée et de la fièvre. En revanche, cette co-occurrence chez les enfants diminue significativement avec l’âge. Les effets de l’environnement sur l’occurrence ou la co-occurrence des symptômes existent, quand bien même ces effets diminuent avec la prise en compte des facteurs démographiques et socio-économiques et du quartier de résidence. Les résultats de la thèse plaident pour un effort méthodologique, afin d’affiner la définition des variables de l’environnement en milieu urbain.
Resumo:
Les fluctuations économiques représentent les mouvements de la croissance économique. Celle-ci peut connaître des phases d'accélération (expansion) ou de ralentissement (récession), voire même de dépression si la baisse de production est persistente. Les fluctuations économiques sont liées aux écarts entre croissance effective et croissance potentielle. Elles peuvent s'expliquer par des chocs d'offre et demande, ainsi que par le cycle du crédit. Dans le premier cas, les conditions de la production se trouvent modifiées. C'est le cas lorsque le prix des facteurs de production (salaires, prix des matières premières) ou que des facteurs externes influençant le prix des produits (taux de change) évolue. Ainsi, une hausse du prix des facteurs de production provoque un choc négatif et ralentit la croissance. Ce ralentissement peut être également dû à un choc de demande négatif provoqué par une hausse du prix des produits causée par une appréciation de la devise, engendrant une diminution des exportations. Le deuxième cas concerne les variables financières et les actifs financiers. Ainsi, en période d'expansion, les agents économiques s'endettent et ont des comportements spéculatifs en réaction à des chocs d'offre ou demande anticipés. La valeur des titres et actifs financiers augmente, provoquant une bulle qui finit par éclater et provoquer un effondrement de la valeur des biens. Dès lors, l'activité économique ne peut plus être financée. C'est ce qui génère une récession, parfois profonde, comme lors de la récente crise financière. Cette thèse inclut trois essais sur les fluctuations macroéconomiques et les cycles économiques, plus précisément sur les thèmes décrit ci-dessus. Le premier chapitre s'intéresse aux anticipations sur la politique monétaire et sur la réaction des agents écononomiques face à ces anticipations. Une emphase particulière est mise sur la consommation de biens durables et l'endettement relié à ce type de consommation. Le deuxième chapitre aborde la question de l'influence des variations du taux de change sur la demande de travail dans le secteur manufacturier canadien. Finalement, le troisième chapitre s'intéresse aux retombées économiques, parfois négatives, du marché immobilier sur la consommation des ménages et aux répercussions sur le prix des actifs immobiliers et sur l'endettement des ménages d'anticipations infondées sur la demande dans le marché immobilier. Le premier chapitre, intitulé ``Monetary Policy News Shocks and Durable Consumption'', fournit une étude sur le lien entre les dépenses en biens durables et les chocs monétaires anticipés. Nous proposons et mettons en oeuvre une nouvelle approche pour identifier les chocs anticipés (nouvelles) de politique monétaire, en les identifiant de manière récursive à partir des résidus d’une règle de Taylor estimée à l’aide de données de sondage multi-horizon. Nous utilisons ensuite les chocs anticipés inférer dans un modèle autorégressif vectoriel structurel (ARVS). L’anticipation d’une politique de resserrement monétaire mène à une augmentation de la production, de la consommation de biens non-durables et durables, ainsi qu’à une augmentation du prix réel des biens durables. Bien que les chocs anticipés expliquent une part significative des variations de la production et de la consommation, leur impact est moindre que celui des chocs non-anticipés sur les fluctuations économiques. Finalement, nous menons une analyse théorique avec un modèle d’équilibre général dynamique stochastique (EGDS) avec biens durables et rigidités nominales. Les résultats indiquent que le modèle avec les prix des biens durables rigides peut reproduire la corrélation positive entre les fonctions de réponse de la consommation de biens non-durables et durables à un choc anticipé de politique monétaire trouvées à l’aide du ARVS. Le second chapitre s'intitule ``Exchange Rate Fluctuations and Labour Market Adjustments in Canadian Manufacturing Industries''. Dans ce chapitre, nous évaluons la sensibilité de l'emploi et des heures travaillées dans les industries manufacturières canadiennes aux variations du taux de change. L’analyse est basée sur un modèle dynamique de demande de travail et utilise l’approche en deux étapes pour l'estimation des relations de cointégration en données de panel. Nos données sont prises d’un panel de 20 industries manufacturières, provenant de la base de données KLEMS de Statistique Canada, et couvrent une longue période qui inclut deux cycles complets d’appréciation-dépréciation de la valeur du dollar canadien. Les effets nets de l'appréciation du dollar canadien se sont avérés statistiquement et économiquement significatifs et négatifs pour l'emploi et les heures travaillées, et ses effets sont plus prononcés dans les industries davantage exposées au commerce international. Finalement, le dernier chapitre s'intitule ``Housing Market Dynamics and Macroprudential Policy'', dans lequel nous étudions la relation statistique suggérant un lien collatéral entre le marché immobilier and le reste de l'économique et si ce lien est davantage entraîné par des facteurs de demandes ou d'offres. Nous suivons également la littérature sur les chocs anticipés et examinons un cyle d'expansion-récession peut survenir de façon endogène la suite d'anticipations non-réalisées d'une hausse de la demande de logements. À cette fin, nous construisons un modèle néo-Keynésien au sein duquel le pouvoir d’emprunt du partie des consommateurs est limité par la valeur de leur patrimoine immobilier. Nous estimons le modèle en utilisant une méthode Bayésienne avec des données canadiennes. Nous évaluons la capacité du modèle à capter les caractéristiques principales de la consommation et du prix des maisons. Finalement, nous effectuons une analyse pour déterminer dans quelle mesure l'introduction d'un ratio prêt-à-la-valeur contracyclique peut réduire l'endettement des ménages et les fluctuations du prix des maisons comparativement à une règle de politique monétaire répondant à l'inflation du prix des maisons. Nous trouvons une relation statistique suggérant un important lien collatéral entre le marché immobilier et le reste de l'économie, et ce lien s'explique principalement par des facteurs de demande. Nous constatons également que l'introduction de chocs anticipés peut générer un cycle d'expansion-récession du marché immobilier, la récession faisant suite aux attentes non-réalisées par rapport à la demande de logements. Enfin, notre étude suggère également qu'un ratio contracyclique de prêt-à-la-valeur est une politique utile pour réduire les retombées du marché du logement sur la consommation par l'intermédiaire de la valeur garantie.
Resumo:
La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.