545 resultados para Modèle de données
Resumo:
Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.
Resumo:
Les trois essais dans cette thèse étudient les implications des frictions financières, telles que les contraintes de collatérale ou de crédit, pour les décisions économiques des agents et leur impact sur les variables macro-économiques agrégées. Dans le premier chapitre "Financial Contracts and the Political Economy of Investor Protection" nous proposons une théorie du niveau de protection des investisseurs. Une faible protection des investisseurs implique un coût de financement externe plus élevé à cause des problèmes d'agence plus aigus entre les investisseurs et les entrepreneurs. À l'équilibre, ceci exclut les agents plus dépendants sur le financement externe de l'entrepreneuriat, ce qui augmente les profits des entrepreneurs qui restent actifs. Quand le niveau de la protection des investisseurs est choisi par un vote majoritaire, la théorie génère (i) une protection des investisseurs plus faible dans les économies avec plus grande inégalité dans les besoins de financement externe parmi les entrepreneurs, (ii) une dynamique non-monotone de l'output, (iii) améliorations (détériorations) de la protection des investisseurs suite à des ralentissements (accélérations) de l'output agrégé. L'évidence empirique donne un support à ces prédictions de la théorie. Dans le deuxième chapitre "Financial Frictions, Internal Capital Markets, and the Organization of Production", nous examinons comment la présence des frictions financières peut mener à la formation des conglomérats et des "business groups" diversifiées. Particulièrement, nous construisons un modèle d'équilibre général d'entrepreneuriat dans lequel les conglomérats émergent de façon endogène et substituent partiellement le marché du crédit imparfait. Nous montrons que ce modèle est capable d'expliquer quantitativement plusieurs faits stylisés concernant l'organisation de la production, les différences de productivité entre les firmes et les différences en présence des conglomérats entre les pays. Le troisième chapitre "Size and Productivity of Single-segment and Diversified Firms: Evidence from Canadian Manufacturing" étudie empiriquement la relation entre la taille, la productivité, et la structure organisationnelle d'une firme. Utilisant les micro-données sur les établissements manufacturiers canadiens, nous documentons plusieurs faits stylisés concernant la taille et la productivité totale des facteurs des établissements dans les conglomérats et dans les firmes non-diversifiées. Nous trouvons que les établissements dans les conglomérats sont en moyenne plus larges que leurs contreparties dans les firmes non-diversifiées, les petits établissements dans les conglomérats sont moins productifs que les établissements de taille similaire dans les firmes non-diversifiées, mais les larges établissements dans les conglomérats sont plus productifs que ceux de taille similaire dans les firmes non-diversifiées. Cette évidence est consistante avec réallocation interne efficiente des ressources au sein des conglomérats.
Resumo:
Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto.
Resumo:
Cette thèse examine les effets des imperfections des marchés financiers sur la macroéconomie. Plus particulièrement, elle se penche sur les conséquences de la faillite dans les contrats financiers dans une perspective d'équilibre général dynamique. Le premier papier construit un modèle qui utilise l'avantage comparatif des banques dans la gestion des situations de détresse financière pour expliquer le choix des firmes entre les prêts bancaires et les prêts du marché financier. Le modèle réussit à expliquer pourquoi les firmes plus petites préfèrent le financement bancaire et pourquoi les prêts bancaires sont plus répandus en Europe. Le premier fait est expliqué par le lien négatif entre la valeur nette de l'entreprise et la probabilité de faire faillite. Le deuxième fait s'explique par le coût fixe d'émission de bons plus élevé en Europe. Le deuxième papier examine l'interaction entre les contraintes de financement affectant les ménages et les firmes. Une interaction positive pourrait amplifier et augmenter la persistance de l'effet d'un choc agrégé sur l'économie. Je construis un nouveau modèle qui contient des primes de financement externes pour les firmes et les ménages. Dans le modèle de base avec prix et salaires flexibles, j'obtiens une faible interaction négative entre les coûts de financement des firmes et des ménages. Le facteur clé qui explique ce résultat est l'effet du changement contre cyclique du coût de financement des ménages sur leur offre de travail et leur demande de prêts. Dans une période d'expansion, cet effet augmente les taux d'intérêt, réduit l'investissement et augmente le coût de financement des entreprises. Le troisième papier ajoute les contraintes de financement des banques dans un modèle macroéconomiques avec des prêts hypothécaires et des fluctuations dans les prix de l'immobilier. Les banques dans le modèle ne peuvent pas complètement diversifier leurs prêts, ce qui génère un lien entre les risques de faillite des ménages et des banques. Il y a deux effets contraires des cycles économiques qui affectent la prime de financement externe de la banque. Premièrement, il y a un lien positif entre le risque de faillite des banques et des emprunteurs qui contribue à rendre le coût de financement externe des banques contre cyclique. Deuxiément, le lissage de la consommation par les ménages rend la proportion de financement externe des banques pro cyclique, ce qui tend à rendre le coût de financement bancaire pro cyclique. En combinant ces deux effets, le modèle peut reproduire des profits bancaires et des ratios d'endettement bancaires pro cycliques comme dans les données, mais pour des chocs non-financiers les frictions de financement bancaire dans le modèle n'ont pas un effet quantitativement significatif sur les principales variables agrégées comme la consommation ou l'investissement.
Resumo:
La thérapie cellulaire est une avenue pleine de promesses pour la régénération myocardique, par le remplacement du tissu nécrosé, ou en prévenant l'apoptose du myocarde survivant, ou encore par l'amélioration de la néovascularisation. Les cellules souches de la moelle osseuse (CSMO) expriment des marqueurs cardiaques in vitro quand elles sont exposées à des inducteurs. Pour cette raison, elles ont été utilisées dans la thérapie cellulaire de l'infarctus au myocarde dans des études pre-cliniques et cliniques. Récemment, il a été soulevé de possibles effets bénéfiques de l'ocytocine (OT) lors d’infarctus. Ainsi, l’OT est un inducteur de différenciation cardiaque des cellules souches embryonnaires, et cette différenciation est véhiculée par la voie de signalisation du monoxyde d’azote (NO)-guanylyl cyclase soluble. Toutefois, des données pharmacocinétiques de l’OT lui attribue un profil non linéaire et celui-ci pourrait expliquer les effets pharmacodynamiques controversés, rapportés dans la lttérature. Les objectifs de ce programme doctoral étaient les suivants : 1) Caractériser le profil pharmacocinétique de différents schémas posologiques d'OT chez le porc, en développant une modélisation pharmacocinétique / pharmacodynamique plus adaptée à intégrer les effets biologiques (rénaux, cardiovasculaires) observés. 2) Isoler, différencier et trouver le temps optimal d’induction de la différenciation pour les CSMO porcines (CSMOp), sur la base de l'expression des facteurs de transcription et des protéines structurales cardiaques retrouvées aux différents passages. 3) Induire et quantifier la différenciation cardiaque par l’OT sur les CSMOp. 4) Vérifier le rôle du NO dans cette différenciation cardiaque sur les CSMOp. Nous avons constaté que le profil pharmacocinétique de l’OT est mieux expliqué par le modèle connu comme target-mediated drug disposition (TMDD), parce que la durée du séjour de l’OT dans l’organisme dépend de sa capacité de liaison à son récepteur, ainsi que de son élimination (métabolisme). D'ailleurs, nous avons constaté que la différenciation cardiomyogénique des CSMOp médiée par l’OT devrait être induite pendant les premiers passages, parce que le nombre de passages modifie le profile phénotypique des CSMOp, ainsi que leur potentiel de différenciation. Nous avons observé que l’OT est un inducteur de la différenciation cardiomyogénique des CSMOp, parce que les cellules induites par l’OT expriment des marqueurs cardiaques, et l'expression de protéines cardiaques spécifiques a été plus abondante dans les cellules traitées à l’OT en comparaison aux cellules traitées avec la 5-azacytidine, qui a été largement utilisée comme inducteur de différenciation cardiaque des cellules souches adultes. Aussi, l’OT a causé la prolifération des CMSOp. Finalement, nous avons observé que l'inhibition de la voie de signalisation du NO affecte de manière significative l'expression des protéines cardiaques spécifiques. En conclusion, ces études précisent un potentiel certain de l’OT dans le cadre de la thérapie cellulaire cardiomyogénique à base de cellules souches adultes, mais soulignent que son utilisation requerra de la prudence et un approfondissement des connaissances.
Resumo:
Le but de cette étude est d’examiner les liens prédictifs entre les comportements d’agressivité proactive à l’enfance et la délinquance à l’adolescence, ainsi que le rôle potentiellement modérateur des normes prosociales du groupe-classe et du rejet par le groupe de pairs. Spécifiquement, les liens suivants seront examinés : 1) le lien principal positif entre l’agressivité proactive à l’enfance et la délinquance à l’adolescence, 2) l’effet modérateur (i.e., protecteur) des normes prosociales au sein du groupe-classe sur le lien entre l’agressivité proactive et la délinquance et 3) l’effet modérateur de second niveau du rejet par les pairs eu égard à l’effet modérateur de premier niveau des normes prosociales du groupe-classe. Deux modèles théoriques seront utilisés afin d’appuyer le choix des hypothèses et offrir un cadre conceptuel en vue de l’interprétation des résultats: Le modèle du groupe de référence et le modèle de la similarité personne-groupe. Les données proviennent d’un échantillon composé de 327 enfants ayant été évalués à 6 reprises, de l’âge de 10 ans (4e année primaire) à 15 ans (3e secondaire). La délinquance fut mesurée à l’aide de données auto-rapportées par les participants. Les normes prosociales du groupe-classe furent basées sur les évaluations moyennes faites par les enseignants des comportements prosociaux des élèves de leur classe. Le rejet par les pairs fut mesuré à l’aide d’évaluations sociométriques au sein des groupes-classes. Des modèles de régression linéaire hiérarchique ont été utilisés. Les résultats montrent un lien positif entre l’agressivité proactive à l’enfance et la délinquance à l’adolescence. Malgré l’obtention d’un coefficient d’interaction marginal, les résultats indiquent que les normes prosociales modèrent, mais à la hausse, le lien entre l’agressivité et la délinquance. L’effet modérateur du rejet par les pairs n’apparaît pas comme étant significatif. Ces résultats seront discutés afin de mieux comprendre le lien entre l’agressivité et les éléments du contexte social dans lequel l’enfant évolue, ainsi que leur implication au niveau de la prévention des problèmes d’agressivité et de la délinquance en milieu scolaire.
Resumo:
Au Canada, la proportion de la population âgée de 65 ans et plus a augmenté depuis 1980. Bien que la dénutrition ne soit pas inévitable avec le vieillissement, certains changements et facteurs physiopathologiques, environnementaux et psycho socio-économiques peuvent entraîner une détérioration des choix alimentaires et donc, de la qualité de vie des aînés [1]. Plusieurs études font le lien entre l’état nutritionnel et la morbidité ainsi qu’avec les capacités fonctionnelles [2]. Ces observations expliquent l'intérêt de la prévention et du traitement de la dénutrition afin d’optimiser la prise alimentaire et un meilleur état de santé de cette population. Objectifs :1) Explorer les barrières individuelles et socio-environnementales, réelles et perçues, qui peuvent mener à la détérioration des choix et de la qualité alimentaires et entraîner une dénutrition chez les personnes âgées vivant à domicile. 2) Examiner la distribution de ces facteurs dans la population à l’étude. 3) Étudier la relation entre ces facteurs afin de dresser un portrait plus éclairé des déterminants négatifs de l’alimentation chez les adultes âgés pour mieux comprendre les barrières à la prise alimentaire saine. Méthodologie : Il s'agit d'une analyse secondaire réalisée à partir des données recueillies auprès des participants (n=1 602), âgés entre 67 et 84 ans,de l’Étude longitudinale québécoise sur la nutrition et le vieillissement réussi (NuAge) débutée en 2003 et dont le suivi était prévu sur cinq ans [3]. Le but principal de NuAge était de déterminer le rôle de la nutrition dans l’accomplissement d’un vieillissement réussi. Les données comprennent des mesures socio-démographiques, nutritionnelles, fonctionnelles, sociales de même que biologiques et médicales. À partir d'un modèle théorique des déterminants de la prise alimentaire chez la population âgée, ces données ont été mises en lien avec la qualité alimentaire. Cette dernière a été déterminée selon l’adaptation canadienne de l’indice d’alimentation saine (C-HEI), calculé à partir des données alimentaires et nutritionnelles obtenues par le questionnaire de fréquence alimentaire administré aux participants au T1, soit à leur entrée dans l'étude. Résultats : Les barrières qui pourraient freiner la qualité alimentaire des femmes incluent un statut affectif fragile et un fonctionnement social limité. Ce qui ressort, comme étant des barrières au C-HEI chez les hommes, est un revenu perçu comme étant insuffisant pour satisfaire les besoins, le port de prothèses dentaires et le fait de manger souvent au restaurant. Étonnamment, le nombre d’attitudes positives relatives à l’alimentation et un score plus élevé de la composante mentale du SF-36 prédisent un C-HEI plus faible. La nature des réponses auto rapportées pourrait expliquer ces résultats. Conclusion : Les résultats de cette recherche permettent de mieux comprendre les barrières d’une saine alimentation au sein d’une population bien-portante. Il est souhaité que les résultats contribueront au développement d’interventions efficaces ciblant les personnes âgées pour favoriser un apport nutritionnel et un état de santé optimal.
Resumo:
Le GABA est le principal neurotransmetteur inhibiteur du SNC et est impliqué dans le développement du cerveau, la plasticité synaptique et la pathogénèse de maladies telles que l’épilepsie, les troubles de l’anxiété et la douleur chronique. Le modèle actuel de fonctionnement du récepteur GABA-B implique l’hétérodimérisation GABA-B1/B2, laquelle est requise au ciblage à la surface membranaire et au couplage des effecteurs. Il y est cependant des régions du cerveau, des types cellulaires et des périodes du développement cérébral où la sous-unité GABA-B1 est exprimée en plus grande quantité que GABA-B2, ce qui suggère qu’elle puisse être fonctionnelle seule ou en association avec des partenaires inconnus, à la surface cellulaire ou sur la membrane réticulaire. Dans le cadre de cette thèse, nous montrons la capacité des récepteurs GABA-B1 endogènes à activer la voie MAPK-ERK1/2 dans la lignée dérivée de la glie DI-TNC1, qui n’exprime pas GABA-B2. Les mécanismes qui sous-tendent ce couplage demeurent mal définis mais dépendent de Gi/o et PKC. L’immunohistochimie de récepteurs endogènes montre par ailleurs que des anticorps GABA-B1 dirigés contre la partie N-terminale reconnaissent des protéines localisées au RE tandis des anticorps C-terminaux (CT) marquent une protéine intranucléaire. Ces données suggèrent que le domaine CT de GABA-B1 pourrait être relâché par protéolyse. L’intensité des fragments potentiels est affectée par le traitement agoniste tant en immunohistochimie qu’en immunobuvardage de type western. Nous avons ensuite examiné la régulation du clivage par le protéasome en traitant les cellules avec l’inhibiteur epoxomicine pendant 12 h. Cela a résulté en l’augmentation du marquage intranucléaire de GABA-B1-CT et d’un interacteur connu, le facteur de transcription pro-survie ATF-4. Dans des cellules surexprimant GABA-B1-CT, l’induction et la translocation nucléaire d’ATF-4, qui suit le traitement epoxomicine, a complètement été abolie. Cette observation est associée à une forte diminution du décompte cellulaire. Étant donné que les trois derniers résidus de GABA-B1-CT (LYK) codent un ligand pseudo-PDZ et que les protéines à domaines PDZ sont impliquées dans la régulation du ciblage nucléaire et de la stabilité de protéines, en complément de leur rôle d’échaffaud à la surface cellulaire, nous avons muté les trois derniers résidus de GABA-B1-CT en alanines. Cette mutation a complètement annulé les effets de GABA-B1-CT sur l’induction d’ATF-4 et le décompte cellulaire. Cette deuxième série d’expériences suggère l’existence possible de fragments GABA-B1 intranucléaires régulés par le traitement agoniste et le protéasome dans les cellules DI-TNC1. Cette régulation d’ATF-4 dépend des résidus LYK de GABA-B1-CT, qui modulent la stabilité de GABA-B1-CT et favorisent peut-être la formation d’un complexe multiprotéique incluant GABA-B1-CT, ATF-4, de même qu’une protéine d’échaffaudage inconnue. En somme, nous démontrons que les sous-unités GABA-B1 localisées au RE, lorsque non-hétérodimérisées avec GABA-B2, demeurent capables de moduler les voies de signalisation de la prolifération, la différentiation et de la survie cellulaire, via le couplage de protéines G et possiblement la protéolyse régulée. Les mécanismes de signalisation proposés pourraient servir de nouvelle plate-forme dans la compréhension des actions retardées résultant de l’activation des récepteurs 7-TMs.
Resumo:
Il est rapporté que la biodisponibilité orale de l’amoxicilline chez le porc est environ trois fois moindre que chez l’homme. Pour élucider les raisons de cette différence, la pharmacocinétique artérielle, veineuse porte et urinaire de cet antibiotique a été caractérisée à des doses intragastriques de 4 à 30 mg/kg et différents modèles compartimentaux physiologiques ont été conçus pour l’analyse des données. La biodisponibilité orale de l’amoxicilline est maximale à 4 mg/kg, avec une valeur moyenne de 52%. Les différences porto-systémiques de concentrations plasmatiques d’amoxicilline et la clairance urinaire ont permis de démontrer une augmentation de la clairance hépatique jusqu’à la dose de 30 mg/kg. Un modèle compartimental comprenant deux voies parallèles d’absorption (de type Michaelis- Menten d’accessibilité limitée dans le temps et d’ordre 1), deux compartiments de distribution (central et périphérique) deux voies d’élimination (excrétions urinaire et biliaire) est celui qui prédit le mieux les données observées. Ces résultats mettent en évidence le rôle prépondérant du transporteur saturable PepT1 dans l’absorption orale de l’amoxicilline administrée à faible dose, ainsi que l’importance croissante de l’absorption passive lors d’administration à forte dose.
Resumo:
Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.
Resumo:
Le but de cette étude est d’adopter une intervention systémique visant à faciliter la communication entre les infirmières1 et les familles2 dans un contexte de soins intensifs (SI) en traumatologie. Cette recherche prend en compte la réalité et les besoins du milieu à l’étude grâce au devis participatif retenu. Le cadre de référence est composé de l’approche systémique familiale de Wright et Leahey (2005) ainsi que de la théorie du caring de Jean Watson (1979). La collecte des données a été inspirée du parcours de recherche en spirale de Lehoux, Levy et Rodrigue (1995). Cinq entrevues ont été menées auprès de membres de familles ainsi que trois groupes de discussion (focus groups) auprès d’infirmières. L’analyse des données a été effectuée selon le Modèle de Huberman et Miles (2003) qui préconise une démarche analytique continue et interactive. Les résultats obtenus révèlent un changement de pratique selon dix interventions systémiques infirmières spécifiques permettant de faciliter la communication avec les familles aux soins intensifs en traumatologie et soulignent l’importance d’agir sur le plan du contexte, de la relation et du contenu liés au processus de communication. De plus, ils permettent de démontrer un réel changement de pratique dans le milieu retenu pour l’étude.
Resumo:
Le fonctionnement du cortex cérébral nécessite l’action coordonnée de deux des sous-types majeurs de neurones, soient les neurones à projections glutamatergiques et les interneurones GABAergiques. Les interneurones GABAergiques ne constituent que 20 à 30% des cellules corticales par rapport au grand nombre de neurones glutamatergiques. Leur rôle est toutefois prépondérant puisqu’ils modulent fortement la dynamique et la plasticité des réseaux néocorticaux. Il n’est donc pas surprenant que les altérations de développement des circuits GABAergiques soient associées à plusieurs maladies du cerveau, incluant l’épilepsie, le syndrome de Rett et la schizophrénie. La compréhension des mécanismes moléculaires régissant le développement des circuits GABAergiques est une étape essentielle menant vers une meilleure compréhension de la façon dont les anormalités se produisent. Conséquemment, nous nous intéressons au rôle de l’acide polysialique (PSA) dans le développement des synapses GABAergiques. PSA est un homopolymère de chaînons polysialylés en α-2,8, et est exclusivement lié à la molécule d’adhésion aux cellules neuronales (NCAM) dans les cerveaux de mammifères. PSA est impliqué dans plusieurs processus développementaux, y compris la formation et la plasticité des synapses glutamatergiques, mais son rôle dans les réseaux GABAergiques reste à préciser. Les données générées dans le laboratoire du Dr. Di Cristo démontrent que PSA est fortement exprimé post- natalement dans le néocortex des rongeurs, que son abondance diminue au cours du développement, et, faits importants, que son expression dépend de l’activité visuelle i et est inversement corrélée à la maturation des synapses GABAergiques. La présente propose de caractériser les mécanismes moléculaires régulant l’expression de PSA dans le néocortex visuel de la souris. Les enzymes polysialyltransférases ST8SiaII (STX) et ST8SiaIV (PST) sont responsables de la formation de la chaîne de PSA sur NCAM. En contrôlant ainsi la quantité de PSA sur NCAM, ils influenceraient le développement des synapses GABAergiques. Mon projet consiste à déterminer comment l’expression des polysialyltransférases est régulée dans le néocortex visuel des souris durant la période post-natale; ces données sont à la fois inconnues, et cruciales. Nous utilisons un système de cultures organotypiques dont la maturation des synapses GABAergiques est comparable au modèle in vivo. L’analyse de l’expression génique par qPCR a démontré que l’expression des polysialyltransférases diminue au cours du développement; une baisse majeure corrélant avec l’ouverture des yeux chez la souris. Nous avons de plus illustré pour la première fois que l’expression de STX, et non celle de PST, est activité-dépendante, et que ce processus requiert l’activation du récepteur NMDA, une augmentation du niveau de calcium intracellulaire et la protéine kinase C (PKC). Ces données démontrent que STX est l’enzyme régulant préférentiellement le niveau de PSA sur NCAM au cours de la période post-natale dans le cortex visuel des souris. Des données préliminaires d’un second volet de notre investigation suggèrent que l’acétylation des histones et la méthylation de l’ADN pourraient également contribuer à la régulation de la transcription de cette enzyme durant le développement. Plus d’investigations seront toutefois nécessaires afin de confirmer cette hypothèse. En somme, la connaissance des mécanismes par lesquels l’expression des ii polysialyltransférases est modulée est essentielle à la compréhension du processus de maturation des synapses GABAergiques. Ceci permettrait de moduler pharmacologiquement l’expression de ces enzymes; la sur-expression de STX et/ou PST pourrait produire une plus grande quantité de PSA, déstabiliser les synapses GABAergiques, et conséquemment, ré-induire la plasticité cérébrale.
Resumo:
Bien qu’il soit largement reconnu dans différents milieux d’intervention au Québec que l’intervenant est un des agents actifs les plus importants de l’efficacité d’une intervention – et c’est un des postulats centraux de l’intervention psychoéducative –, il existe encore très peu d’instruments de mesure validés empiriquement permettant l’évaluation du fonctionnement d’un groupe d’intervenants. Néanmoins, il existe un instrument pouvant mesurer le climat social d’une équipe, soit le Questionnaire du climat social d’une équipe d’intervenants (QCSÉI; Le Blanc, Trudeau-Le Blanc, & Lanctôt, 1999; Moos 1987). Le QCSÉI compte 10 échelles de premier niveau. Dans ses écrits théoriques, Moos (2003) a suggéré que le climat social est un construit hiérarchique et que l’ensemble des instruments mesurant différentes dimensions du climat social d’un groupe ou d’une équipe devrait se regrouper en trois facteurs d’ordre supérieur, soit les relations interpersonnelles, la découverte de soi et le maintien de l’ordre et du changement. Un examen conceptuel des échelles du QCSÉI suggère que ce modèle théorique est problématique. Cette étude visait à déterminer si la structure hiérarchique proposée par Moos était adéquate pour le QCSÉI dans un échantillon d’intervenants québécois. L’échantillon utilisé était composé d’intervenants faisant partie de Boscoville2000, un projet d’intervention cognitivecomportementale en milieu résidentiel pour les adolescents en difficulté. Des analyses factorielles exploratoires ont d’abord démontré que la structure de premier niveau est bien reproduite. Deux échelles jugées importantes pour mesurer le climat social ont ensuite été ajoutées. Par la suite, des analyses factorielles exploratoires et confirmatoires ont démontré que la structure théorique hiérarchique en trois dimensions d’ordre supérieur de Moos ne représente pas bien les données. Les analyses ont révélé une structure alternative plus intéressante sur le plan conceptuel et qui représentait mieux les données. Des corrélations entre les échelles de climat social de l’équipe et les traits de personnalité des intervenants ainsi que différentes variables sociodémographiques et liées à la pratique professionnelle ont procuré un appui qui suggère que le QCSÉI possède une validité de critère acceptable.
Resumo:
Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis