150 resultados para Modèle pharmacocinétique à base physiologique
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtenion du grade de Maîtrise en sciences économiques.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Le récepteur A des peptides natriurétiques (NPRA) fait partie de la famille des guanylates cyclases membranaires. L’activation du NPRA par ses agonistes naturels, ANP et BNP, induit une production de GMPc qui est responsable de leur rôle dans l’homéostasie cardiovasculaire, l’inhibition de l’hypertrophie et de la fibrose cardiaques et la régulation de la lipolyse. Le NPRA est un homodimère non covalent composé d’un domaine extracellulaire de liaison du ligand (ECD), d’un unique domaine transmembranaire (TM), d’un domaine d’homologie aux kinases et d’un domaine guanylate cyclase. Bien que le NPRA ait un rôle physiologique important, les mécanismes moléculaires régissant son processus d’activation restent inconnus. Nous avons donc analysé les premières étapes du processus d’activation du NPRA. Nous avons d'abord étudié le rôle de la dimérisation des ECD dans l’activation du récepteur. Nous avons utilisé les techniques de liaison de radioligand, de FRET et de modélisation moléculaire, pour caractériser la liaison à l’ECD des agonistes naturels, d’un superagoniste et d’un antagoniste. L’ANP se lie à un dimère d’ECD préformé et la dimérisation spontanée est l’étape limitante du processus de liaison. De plus, comme le démontrent nos études de FRET, tous les peptides, incluant l’antagoniste, stabilisent le récepteur sous sa forme dimérique. Cependant, l’antagoniste A71915 stabilise le dimère d’ECD dans une conformation différente de celle induite par l’ANP. La dimérisation du NPRA semble donc nécessaire, mais non suffisante à l’activation du récepteur. L’état d’activation du NPRA dépend plutôt de l’orientation des sous unités dans le dimère. Nous avons ensuite étudié le mécanisme moléculaire de transduction du signal à travers la membrane. Plusieurs études ont suggéré que l’activation du NPRA implique un changement de conformation du domaine juxtamembranaire (JM). Cependant, les études de cristallographie de l’ECD soluble de NPRA n’ont pas permis de documenter la structure du JM et le changement de conformation impliqué dans la transduction du signal reste inconnu. Pour analyser ce changement de conformation, nous avons d’abord séquentiellement substitué les neuf acides aminés du JM par une cystéine. En étudiant la capacité des mutants à former des dimères covalents de façon constitutive ou induite par l’ANP, nous avons pu évaluer la proximité relative des résidus du JM, avant et après activation du NPRA. Ces résultats ont démontré la proximité élevée de certains résidus spécifiques et sont en contradiction avec les données cristallographiques. Nous avons également démontré que le domaine intracellulaire impose une contrainte conformationnelle au JM à l’état de base, qui est levée après liaison de l’ANP. En introduisant de 1 à 5 alanines dans l’hélice-α transmembranaire, nous avons montré qu’une rotation des TM de 40° induit une activation constitutive du NPRA. Le signal d’activation pourrait donc être transmis à travers la membrane par un mécanisme de rotation des TM. En utilisant nos données expérimentales, nous avons généré le premier modèle moléculaire illustrant la conformation active du NPRA, où les domaines JM et TM sont représentés. Dans son ensemble, cette étude apporte une meilleure compréhension des mécanismes moléculaires régissant les premières étapes du processus complexe d’activation du NPRA.
Resumo:
Les différents acteurs impliqués dans la formation pratique en milieu scolaire doivent composer avec les réalités culturelles et territoriales des régions du Québec. Les étudiants issus des régions éloignées des universités souhaitent retourner dans leur milieu d’origine afin d’y réaliser un de leur stage. L’omniprésence des technologies de l’information et des communications (TIC) dans les milieux scolaires et universitaires et l’exigence du Ministère de l’Éducation du Québec (MEQ) (2001) à développer une compétence professionnelle qui vise à intégrer les TIC aux fins de préparation, de pilotage et de gestion de l’enseignement concourent à mettre en place un modèle de supervision qui puisse répondre aux exigences liées au domaine de la formation pratique. Les enjeux sont de taille et méritent que l’on s’y attarde. Prenant en considération le fait que l’observation et la communication entre les différents partenaires de la supervision du stagiaire sont à la base d’une formation efficiente qui puisse répondre aux besoins des étudiants, la présente étude propose un modèle de supervision pouvant accroître la présence des universités dans les milieux plus éloignés et ainsi assurer un accompagnement optimal des stagiaires sur l’ensemble du territoire québécois. Cette recherche a pour objectif de mieux comprendre les avantages et les limites d’un modèle de supervision en distanciel faisant appel aux TIC lors des stages réalisés dans les milieux scolaires éloignés de leur université. Plus précisément, l’étude répond à trois objectifs en identifiant (1) les avantages et (2) les limites liés à la supervision des stages lorsqu’ils se déroulent par l’entremise des TIC et en contribuant à (3) comprendre l’efficience d’un modèle de supervision en distanciel appuyé par les TIC sur l’accompagnement des stagiaires dans le développement de leurs compétences professionnelles de l’acte d’enseigner et de l’identité professionnelle. Afin de saisir les enjeux d’un tel modèle, une étude qualitative descriptive s’avère être le choix qui s’impose. Une rigoureuse collecte de données menée auprès de quatre stagiaires, leur enseignant associé respectif et leur superviseur à l’aide de grilles d’observation, d’enregistrements vidéo, de journaux de bord et d’entrevues semi-dirigées permet de répondre à quatre questions de recherche. Ces dernières s’interrogent sur l’efficience d’un modèle de supervision en distanciel au plan de l’encadrement du stagiaire avant, pendant et après sa prestation, au plan du développement des compétences professionnelles de l’acte d’enseigner et de l’identité professionnelle et au plan de la communication entre les partenaires de la supervision. Les données recueillies à partir des différents outils permettent la présentation d’une description de chaque étape et des avantages et des limites de chacune d’elles : l’accueil, l’observation, les échanges-partenaires et la rétroaction. L’étude permet également de mieux comprendre les avantages et les limites d’une supervision en distanciel appuyé par les TIC lors des stages se déroulant dans les milieux scolaires éloignés de leur université. Ainsi, l’étude fait ressortir que chaque étape du modèle de supervision en distanciel proposé contribue, à différents égards, à rendre la supervision efficiente sur le plan de l’accompagnement au développement des compétences professionnelles. Des recommandations et des pistes de recherches sont proposées afin de maximiser le potentiel du modèle.
Resumo:
L’hypertension systolique isolée (HSI) est le résultat de changements au niveau de la paroi vasculaire qui ont pour conséquence d’augmenter la rigidité artérielle. Ces modifications surviennent surtout au niveau des grosses artères comme l’aorte et sont associées au vieillissement. La fragmentation des fibres élastiques, leur calcification (élastocalcinose) et la fibrose font partie des changements majeurs observés avec l’âge. En plus de ces changements, le vieillissement vasculaire provoque des modifications au niveau des cellules qui composent la paroi. Les cellules endothéliales sécrètent moins de monoxyde d’azote (NO) provoquant une dysfonction endothéliale et les cellules musculaires lisses vasculaires (CMLVs) synthétisent maintenant des protéines matricielles et osseuses. Situé entre le sang et les CMLVs, l’endothélium contrôle le tonus vasculaire par la sécrétion de plusieurs substances vasoactives qui interagissent entre elles afin de maintenir l’homéostasie du système vasculaire. Parmi celles-ci, on note l’endothéline (ET), un puissant vasoconstricteur et le NO, un gaz vasorelaxants. Ce dernier est aussi reconnu pour bloquer la production d’ET par un mécanisme dépendant du guanosine monophosphate cyclique (GMPc). Comme il y a une interaction entre le NO et l’ET, et que cette dernière est impliquée dans la calcification artérielle, le NO pourrait être impliqué dans la modulation de l’élastocalcinose et de la rigidité artérielle par l’inhibition de l’ET et la modification de la composition de la paroi. Cet effet, qui se produirait au delà des effets vasorelaxants du NO, offre un potentiel thérapeutique intéressant pour l’HSI. Afin d’évaluer l’implication du NO dans la calcification vasculaire et la rigidité artérielle, un modèle animal d’HSI a été utilisé (modèle warfarine vitamine K, WVK). Ce modèle d’élastocalcinose est basé sur l’inhibition de la maturation d’une protéine anti-calcifiante, la matrix Gla protein (MGP), par la warfarine. Afin de déterminer l’implication physiologique du NO dans l’initiation et la progression de l’élastocalcinose, sa production a été inhibée par un analogue de la L-arginine, le L-NG-nitroarginine methyl ester (L-NAME). Lors des processus d’initiation de la calcification, le L-NAME a prévenu l’élastocalcinose sans toutefois modifier la vitesse de l’onde de pouls (PWV). Suite au traitement L-NAME, l’expression de la NO synthase inductible (iNOS) a été diminuée alors qu’elle a été augmentée lors du traitement WVK. Elle pourrait donc être impliquée dans les processus de calcification vasculaire. De plus, la NO synthase endothéliale (eNOS) semble également impliquée puisqu’elle a été augmentée dans le modèle WVK. Cette hausse pourrait être bénéfique pour limiter l’élastocalcinose alors que l’expression de la iNOS serait délétère. Lors de la progression de la calcification, le L-NAME a augmenté l’élastocalcinose et le PWV. Dans ce contexte, l’ET serait impliquée dans l’amplification de la calcification vasculaire entrainant une hausse de la rigidité artérielle. Comme le NO endogène limite la progression de la calcification et conséquemment la rigidité artérielle, il semble être protecteur. L’efficacité d’une modulation de la voie du NO dans le modèle WVK a été étudiée par l’administration d’un donneur de NO, le sinitrodil, ou d’un inhibiteur de la phosphosdiestérase 5 (PDE5), le tadalafil. La modulation de la voie du NO semble être bénéfique sur la rigidité artérielle, mais seulement de façon aiguë. En effet, le sinitrodil a modifié de transitoirement la rigidité au niveau de l’aorte possiblement par la modulation du tonus vasculaire sans toutefois avoir des effets sur la composition de la paroi. Comme le modèle WVK n’affecte pas la fonction endothéliale, les concentrations endogènes de NO semblent être optimales puisque le sinitrodil provoque une augmentation de l’élastocalcinose possiblement par le développement d’une tolérance. Tout comme le sinitrodil, le tadalafil a modulé de manière aiguë la rigidité artérielle sans modifier la composition de la paroi. Globalement, ces travaux ont permis de mettre en évidence les effets bénéfiques du NO endogène pour limiter le développement de l’HSI, suggérant qu’une dysfonction endothéliale, tel qu’observé lors du vieillissement, a un impact négatif sur la maladie.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
Resumo:
La thérapie cellulaire est une avenue pleine de promesses pour la régénération myocardique, par le remplacement du tissu nécrosé, ou en prévenant l'apoptose du myocarde survivant, ou encore par l'amélioration de la néovascularisation. Les cellules souches de la moelle osseuse (CSMO) expriment des marqueurs cardiaques in vitro quand elles sont exposées à des inducteurs. Pour cette raison, elles ont été utilisées dans la thérapie cellulaire de l'infarctus au myocarde dans des études pre-cliniques et cliniques. Récemment, il a été soulevé de possibles effets bénéfiques de l'ocytocine (OT) lors d’infarctus. Ainsi, l’OT est un inducteur de différenciation cardiaque des cellules souches embryonnaires, et cette différenciation est véhiculée par la voie de signalisation du monoxyde d’azote (NO)-guanylyl cyclase soluble. Toutefois, des données pharmacocinétiques de l’OT lui attribue un profil non linéaire et celui-ci pourrait expliquer les effets pharmacodynamiques controversés, rapportés dans la lttérature. Les objectifs de ce programme doctoral étaient les suivants : 1) Caractériser le profil pharmacocinétique de différents schémas posologiques d'OT chez le porc, en développant une modélisation pharmacocinétique / pharmacodynamique plus adaptée à intégrer les effets biologiques (rénaux, cardiovasculaires) observés. 2) Isoler, différencier et trouver le temps optimal d’induction de la différenciation pour les CSMO porcines (CSMOp), sur la base de l'expression des facteurs de transcription et des protéines structurales cardiaques retrouvées aux différents passages. 3) Induire et quantifier la différenciation cardiaque par l’OT sur les CSMOp. 4) Vérifier le rôle du NO dans cette différenciation cardiaque sur les CSMOp. Nous avons constaté que le profil pharmacocinétique de l’OT est mieux expliqué par le modèle connu comme target-mediated drug disposition (TMDD), parce que la durée du séjour de l’OT dans l’organisme dépend de sa capacité de liaison à son récepteur, ainsi que de son élimination (métabolisme). D'ailleurs, nous avons constaté que la différenciation cardiomyogénique des CSMOp médiée par l’OT devrait être induite pendant les premiers passages, parce que le nombre de passages modifie le profile phénotypique des CSMOp, ainsi que leur potentiel de différenciation. Nous avons observé que l’OT est un inducteur de la différenciation cardiomyogénique des CSMOp, parce que les cellules induites par l’OT expriment des marqueurs cardiaques, et l'expression de protéines cardiaques spécifiques a été plus abondante dans les cellules traitées à l’OT en comparaison aux cellules traitées avec la 5-azacytidine, qui a été largement utilisée comme inducteur de différenciation cardiaque des cellules souches adultes. Aussi, l’OT a causé la prolifération des CMSOp. Finalement, nous avons observé que l'inhibition de la voie de signalisation du NO affecte de manière significative l'expression des protéines cardiaques spécifiques. En conclusion, ces études précisent un potentiel certain de l’OT dans le cadre de la thérapie cellulaire cardiomyogénique à base de cellules souches adultes, mais soulignent que son utilisation requerra de la prudence et un approfondissement des connaissances.
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
La maladie cœliaque ou sprue cœliaque est une intolérance au gluten. Il s’agit d’une maladie inflammatoire de l’intestin liée à l’ingestion de gluten chez des personnes génétiquement susceptibles. Ce désordre présente une forte prévalence puisqu’il touche 1 % de la population mondiale. En l’état actuel des choses, il n’existe aucun outil pharmacologique pour traiter ou pallier à cette maladie. Cependant, grâce aux avancées dans la compréhension de sa pathogenèse, de nouvelles cibles thérapeutiques ont été identifiées. À l’heure actuelle, le seul traitement efficace consiste à suspendre la consommation de l’agent pathogène, à savoir le gluten. Le gluten est un ensemble de protéines de stockage des céréales contenu dans le blé, l’orge et le seigle. Le gluten du blé se subdivise en gluténines et gliadines. Ce sont ces dernières qui semblent les plus impliquées dans la maladie cœliaque. Les gliadines et ses protéines apparentées (i.e. sécalines et hordéines, respectivement dans le seigle et l’orge) sont riches en prolines et en glutamines, les rendant résistantes à la dégradation par les enzymes digestives et celles de la bordure en brosse. Les peptides résultant de cette digestion incomplète peuvent induire des réponses immunitaires acquises et innées. L’objectif principal de cette thèse était de tester un nouveau traitement d’appoint de la maladie cœliaque utile lors de voyages ou d’évènements ponctuels. Dans les années 80, une observation italienne montra l’inhibition de certains effets induits par des gliadines digérées sur des cultures cellulaires grâce à la co-incubation en présence de mannane: un polyoside naturel composé de mannoses. Malheureusement, ce traitement n’était pas applicable in vivo à cause de la dégradation par les enzymes du tractus gastro-intestinales du polymère, de par sa nature osidique. Les polymères de synthèse, grâce à la diversité et au contrôle de leurs propriétés physico-chimiques, se révèlent être une alternative attrayante à ce polymère naturel. L’objectif de cette recherche était d’obtenir un polymère liant la gliadine, capable d’interférer dans la genèse de la maladie au niveau du tube digestif, afin d’abolir les effets délétères induits par la protéine. Tout d’abord, des copolymères de type poly (hydroxyéthylméthacrylate)-co-(styrène sulfonate) (P(HEMA-co-SS)) ont été synthétisés par polymérisation radicalaire contrôlée par transfert d’atome (ATRP). Une petite bibliothèque de polymères a été préparée en faisant varier la masse molaire, ainsi que les proportions de chacun des monomères. Ces polymères ont ensuite été testés quant à leur capacité de complexer la gliadine aux pH stomacal et intestinal et les meilleurs candidats ont été retenus pour des essais cellulaires. Les travaux ont permis de montrer que le copolymère P(HEMA-co-SS) (45:55 mol%, 40 kDa) permettait une séquestration sélective de la gliadine et qu’il abolissait les effets induits par la gliadine sur différents types cellulaires. De plus, ce composé interférait avec la digestion de la gliadine, suggérant une diminution de peptides immunogènes impliqués dans la maladie. Ce candidat a été testé in vivo, sur un modèle murin sensible au gluten, quant à son efficacité vis-à-vis de la gliadine pure et d’un mélange contenant du gluten avec d’autres composants alimentaires. Le P(HEMA-co-SS) a permis de diminuer les effets sur les paramètres de perméabilité et d’inflammation, ainsi que de moduler la réponse immunitaire engendrée par l’administration de gliadine et celle du gluten. Des études de toxicité et de biodistribution en administration aigüe et chronique ont été réalisées afin de démontrer que ce dernier était bien toléré et peu absorbé suite à son administration par la voie orale. Enfin des études sur des échantillons de tissus de patients souffrants de maladie cœliaque ont montré un bénéfice therapeutique du polymère. L’ensemble des travaux présentés dans cette thèse a permis de mettre en évidence le potentiel thérapeutique du P(HEMA-co-SS) pour prévenir les désordres reliés à l’ingestion de gluten, indiquant que ce type de polymère pourrait être exploité dans un avenir proche.
Resumo:
Cette thèse poursuit deux objectifs principaux. Le premier consiste à développer un modèle de la compatibilité conjugale fondé sur les notions d’attachement (évitement de la proximité et anxiété d’abandon) et de personnalité (névrotisme). Le deuxième objectif est d’examiner la validité prévisionnelle de ce modèle de compatibilité chez des couples en psychothérapie conjugale. Dans un premier temps, la présente thèse fait brièvement état de la situation des couples au Québec et des répercussions de la détresse conjugale. Par la suite, la recension de la documentation traite du concept de compatibilité entre conjoints en tant qu’alternative à la conceptualisation des dynamiques de couples. Cette analyse théorique montre ensuite la pertinence d’enrichir les modèles de compatibilité en y introduisant les notions d’attachement et de névrotisme. L’examen de ce modèle est suivi par une description des enjeux méthodologiques et statistiques à prendre en compte pour déterminer les fondements scientifiques des hypothèses sur la compatibilité conjugale. L’analyse de la validité prévisionnelle du modèle de compatibilité proposé compose le cœur de cette thèse. Pour ce faire, des couples effectuant une thérapie conjugale ont complété une série de questionnaires en début de suivi, dont l’Échelle d’ajustement dyadique (Spanier, 1976), le Questionnaire sur les expériences d’attachement amoureux (Brennan, Clark, & Shaver, 1998) et le NEO-FFI (Costa & McCrae, 1992). Les données des 365 couples de l’échantillon sont d’abord analysées en appliquant une méthode fondée sur les modèles d’interdépendance acteur-partenaire (APIM) (Kashy & Snyder, 1995). Les résultats démontrent que la présence d’évitement de la proximité est négativement liée à la satisfaction des conjoints eux-mêmes et à celle de leur partenaire. La méthode APIM révèle aussi que plus l’écart entre les conjoints sur l’évitement et le névrotisme est grand, plus les partenaires rapportent être insatisfaits de leur relation. Les résultats sont ensuite examinés à l’aide d’une technique statistique, l’analyse des regroupements naturels ou des clusters, susceptible de mieux examiner la notion de compatibilité. Cette analyse montre la présence de sept regroupements naturels de conjoints selon leurs scores d’attachement et de névrotisme. De plus, lorsque ces clusters sont croisés en fonction de la détresse conjugale, trois grands sous-types de couples qui engendrent des profils de détresse conjugale distincts émergent des analyses. Ces clusters présentent enfin des différences qualitatives quant à la nature des mandats thérapeutiques confiés aux thérapeutes. Les implications des résultats sont discutées en regard de la validation du modèle de compatibilité fondé sur les notions d’attachement et de névrotisme. Certaines données de la présente thèse suggèrent que ce ne sont pas les caractéristiques de l’un ou de l’autre des conjoints prises isolément, mais plutôt la combinaison des caractéristiques des conjoints qui explique le mieux la nature et la gravité de la détresse conjugale vécue. Plusieurs défis conceptuels, théoriques et méthodologiques sont discutés et des pistes de recherches futures sont proposées afin de consolider les assises scientifiques du modèle de compatibilité.
Resumo:
Rapport d’analyse de pratique présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maîtrise ès sciences (M.Sc) en service social
Resumo:
Nous avons développé un modèle qui cherche à identifier les déterminants des trajectoires scolaires des élèves universitaires en articulant deux perspectives théoriques et en utilisant une approche méthodologique mixte en deux phases : quantitative et qualitative. La première phase est basée sur le modèle de Tinto (1992) avec l'incorporation d'autres variables de Crespo et Houle (1995). Cette étape a atteint deux objectifs. Dans le premier, on a identifié les différences entre les variables exogènes (indice économique, l'éducation parentale, moyen au lycée et moyenne dans l’examen d'entrée) et trois types de trajectoires: la persévérante, de décalage et d’abandon. Cette phase était basée sur les données d'un sondage administré à 800 étudiants à l'Université de Sonora (Mexique). Les résultats montrent que ceux qui ont quitté l'institution ont obtenu des scores significativement plus bas sur les variables exogènes. Le deuxième objectif a été atteint pour les trajectoires persévérantes et de décalage, en établissant que les étudiants ont une plus grande chance d’être persévérants lorsqu’ils présentent de meilleurs scores dans deux variables exogènes (l'examen d'entrée et être de genre féminin) et quatre viable endogènes (haute intégration académique, de meilleures perspectives d'emploi, ont une bourse). Dans la deuxième phase nous avons approfondi la compréhension (Verstehen) des processus d'articulation entre l'intégration scolaire et sociale à travers de trois registres proposés par Dubet (2005): l'intégration, le projet et la vocation. Cette phase a consisté dans 30 interviews avec étudiantes appartenant aux trois types de trajectoire. À partir du travail de Bourdages (1994) et Guzman (2004), nous avons cherché le sens de l'expérience attribuée par les étudiants au processus éducatif. Les résultats révèlent cinq groupes d’étudiantes avec des expériences universitaires identifiables : ceux qui ont une intégration académique et sociale plus grande, les femmes travailleuses intégrées académiquement, ceux qui ont les plus grandes désavantages économiques et d’intégration scolaire, ceux qui ont cherché leur vocation dans un autre établissement et ceux qui n'ont pas poursuivi leurs études. L'utilisation de différents outils statistiques (analyse de corrélation, analyse de régression logistique et analyse des conglomérats) dans la première phase a permis d’identifier des variables clés dans chaque type de trajectoire, lesquelles ont été validées avec les résultats de la phase qualitative. Cette thèse, en plus de montrer l'utilité d'une approche méthodologique mixte, étend le modèle de Tinto (1987) et confirme l'importance de l'intégration scolaire pour la persévérance à l'université.
Resumo:
Depuis le début des années 90, le projet génome humain a permis l’émergence de nombreuses techniques globalisantes porteuses du suffixe –omique : génomique, transcriptomique, protéomique, épigénomique, etc.… L’étude globale de l’ensemble des phénotypes humains (« phénome ») est à l’origine de nouvelles technologies constituant la « phénomique ». L’approche phénomique permet de déterminer des liens entre des combinaisons de traits phénomiques. Nous voulons appliquer cette approche à l’étude des malformations humaines en particulier leurs combinaisons, ne formant des syndromes, des associations ou des séquences bien caractérisés que dans un petit nombre de cas. Afin d’évaluer la faisabilité de cette approche, pour une étude pilote nous avons décidé d’établir une base de données pour la description phénotypique des anomalies foetales. Nous avons effectué ces étapes : o Réalisation d’une étude rétrospective d’une série d’autopsies de foetus au CHU Sainte- Justine (Montréal, QC, Canada) entre 2001-2006 o Élaboration de trois thésaurus et d’une ontologie des anomalies développementales humaines o Construction une base de données en langage MySQL Cette base de données multicentrique accessible sur (http://www.malformations.org), nous permet de rechercher très facilement les données phénotypiques des 543 cas observés porteurs d’une anomalie donnée, de leur donner une description statistique et de générer les différents types d’hypothèses. Elle nous a également permis de sélectionner 153 cas de foetus malformés qui font l’objet d’une étude de micropuce d’hybridation génomique comparative (aCGH) à la recherche d’une anomalie génomique.
Resumo:
Le traitement du cancer à l’aide d’une exposition aux radiations ionisantes peut mener au développement de plusieurs effets secondaires importants, dont un retard de réparation et de régénération du tissu hématopoïétique. Les mécanismes responsables de ces effets demeurent encore inconnus, ce qui limite le développement de nouvelles approches thérapeutiques. À l’aide d’un modèle murin de prise de greffe, nos résultats démontrent que l’endommagement du microenvironnement par l’irradiation a un impact limitant sur le nichage hématopoïétique. Parce que le microenvironnement est composé principalement de cellules dérivées des cellules souches mésenchymateuses (CSM), nous avons évalué le potentiel des CSM à régénérer le tissu hématopoïétique par la reconstitution de la niche osseuse. Cette thérapie a mené à une augmentation remarquable du nichage hématopoïétique chez les souris irradiées. Les causes moléculaires impliquées dans le nichage hématopoïétiques sont encore inconnues, mais nous avons remarqué l’augmentation de la sécrétion de la cytokine « granulocyte-colony stimulating factor » (G-CSF) dans l’espace médullaire suite à l’irradiation. Le G-CSF est impliqué dans la mobilisation cellulaire et est fort possiblement nuisible à une prise de greffe. Nous avons évalué le potentiel d’une thérapie à base de CSM sécrétant le récepteur soluble du G-CSF afin de séquestrer le G-CSF transitoirement et les résultats obtenus démontrent que le blocage du G-CSF favorise le nichage hématopoïétique. Globalement, les données présentées dans ce mémoire démontrent que le microenvironnement osseux et le niveau de G-CSF dans la moelle sont importants dans le processus de nichage hématopoïétique et que la baisse du potentiel de régénération du tissu hématopoïétique suite à l’irradiation peut être renversée à l’aide d’une thérapie cellulaire de CSM génétiquement modifiées ou non.
Resumo:
Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.