9 resultados para Calculus of variations.

em Université de Montréal, Canada


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Afin d’adresser la variabilité interindividuelle observée dans la réponse pharmacocinétique à de nombreux médicaments, nous avons créé un panel de génotypage personnalisée en utilisant des méthodes de conception et d’élaboration d’essais uniques. Celles-ci ont pour but premier de capturer les variations génétiques présentent dans les gènes clés impliqués dans les processus d'absorption, de distribution, de métabolisme et d’excrétion (ADME) de nombreux agents thérapeutiques. Bien que ces gènes et voies de signalement sont impliqués dans plusieurs mécanismes pharmacocinétiques qui sont bien connues, il y a eu jusqu’à présent peu d'efforts envers l’évaluation simultanée d’un grand nombre de ces gènes moyennant un seul outil expérimental. La recherche pharmacogénomique peut être réalisée en utilisant deux approches: 1) les marqueurs fonctionnels peuvent être utilisés pour présélectionner ou stratifier les populations de patients en se basant sur des états métaboliques connus; 2) les marqueurs Tag peuvent être utilisés pour découvrir de nouvelles corrélations génotype-phénotype. Présentement, il existe un besoin pour un outil de recherche qui englobe un grand nombre de gènes ADME et variantes et dont le contenu est applicable à ces deux modèles d'étude. Dans le cadre de cette thèse, nous avons développé un panel d’essais de génotypage de 3,000 marqueurs génétiques ADME qui peuvent satisfaire ce besoin. Dans le cadre de ce projet, les gènes et marqueurs associés avec la famille ADME ont été sélectionnés en collaboration avec plusieurs groupes du milieu universitaire et de l'industrie pharmaceutique. Pendant trois phases de développement de cet essai de génotypage, le taux de conversion pour 3,000 marqueurs a été amélioré de 83% à 97,4% grâce à l'incorporation de nouvelles stratégies ayant pour but de surmonter les zones d'interférence génomiques comprenant entre autres les régions homologues et les polymorphismes sous-jacent les régions d’intérêt. La précision du panel de génotypage a été validée par l’évaluation de plus de 200 échantillons pour lesquelles les génotypes sont connus pour lesquels nous avons obtenu une concordance > 98%. De plus, une comparaison croisée entre nos données provenant de cet essai et des données obtenues par différentes plateformes technologiques déjà disponibles sur le marché a révélé une concordance globale de > 99,5%. L'efficacité de notre stratégie de conception ont été démontrées par l'utilisation réussie de cet essai dans le cadre de plusieurs projets de recherche où plus de 1,000 échantillons ont été testés. Nous avons entre autre évalué avec succès 150 échantillons hépatiques qui ont été largement caractérisés pour plusieurs phénotypes. Dans ces échantillons, nous avons pu valider 13 gènes ADME avec cis-eQTL précédemment rapportés et de découvrir et de 13 autres gènes ADME avec cis eQTLs qui n'avaient pas été observés en utilisant des méthodes standard. Enfin, à l'appui de ce travail, un outil logiciel a été développé, Opitimus Primer, pour aider pour aider au développement du test. Le logiciel a également été utilisé pour aider à l'enrichissement de cibles génomiques pour d'expériences séquençage. Le contenu ainsi que la conception, l’optimisation et la validation de notre panel le distingue largement de l’ensemble des essais commerciaux couramment disponibles sur le marché qui comprennent soit des marqueurs fonctionnels pour seulement un petit nombre de gènes, ou alors n’offre pas une couverture adéquate pour les gènes connus d’ADME. Nous pouvons ainsi conclure que l’essai que nous avons développé est et continuera certainement d’être un outil d’une grande utilité pour les futures études et essais cliniques dans le domaine de la pharmacocinétique, qui bénéficieraient de l'évaluation d'une longue liste complète de gènes d’ADME.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En 2011, l’Agence de la santé et des services sociaux de Montréal (ASSSM), en partenariat avec les Centres de santé et services sociaux (CSSS) de la région, a coordonné la mise en œuvre d’un programme de prévention et de prise en charge intégré sur le risque cardiométabolique. Ce programme, s’inspirant du Chronic Care Model et s’adressant aux patients atteints de diabète et d’hypertension artérielle, est d’une durée de deux ans et comporte une séquence de suivis individuels avec l’infirmière et la nutritionniste, de cours de groupe et de séances d’activité physique. L’objectif de ce mémoire est d’évaluer, à l’aide d’un devis quasi-expérimental, l’impact de la variation dans l’implantation de certains aspects du programme dans les six CSSS participant à l’étude sur les résultats de santé des patients. Cinq aspects du programme ont été retenus : les ressources, la conformité au processus clinique prévu dans le programme régional, la maturité du programme, la coordination interne au sein de l’équipe de soins et la coordination externe avec les médecins de 1re ligne. Des analyses de différence de différences, incluant des scores de propension afin de rendre les groupes comparables, ont été effectuées dans le but d’évaluer l’influence de ces aspects sur quatre indicateurs de santé : l’hémoglobine glyquée, l’atteinte de la cible de tension artérielle et l’atteinte de deux cibles d’habitudes de vie concernant la répartition des glucides alimentaires et la pratique d’activité physique. Les résultats indiquent que les indicateurs de santé sélectionnés se sont améliorés chez les patients participant au programme et ce, indépendamment des variations dans son implantation entre les CSSS participant à l’étude. Très peu d’analyses de différence de différences ont en effet relevé un impact significatif des variables d’implantation étudiées sur ces indicateurs. Les résultats suggèrent que les effets bénéfiques d’un tel programme sont davantage tributaires de la prestation des interventions auprès des patients que d’aspects organisationnels liés à son implantation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Using data from the National Longitudinal Survey of Youth (NLSY), we re-examine the effect of formal on-the-job training on mobility patterns of young American workers. By employing parametric duration models, we evaluate the economic impact of training on productive time with an employer. Confirming previous studies, we find a positive and statistically significant impact of formal on-the-job training on tenure with the employer providing the training. However, the expected net duration of the time spent in the training program is generally not significantly increased. We proceed to document and analyze intra-sectoral and cross-sectoral mobility patterns in order to infer whether training provides firm-specific, industry-specific, or general human capital. The econometric analysis rejects a sequential model of job separation in favor of a competing risks specification. We find significant evidence for the industry-specificity of training. The probability of sectoral mobility upon job separation decreases with training received in the current industry, whether with the last employer or previous employers, and employment attachment increases with on-the-job training. These results are robust to a number of variations on the base model.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La proprotéine convertase subtilisine/kexine type 9 (PCSK9) favorise la dégradation post-transcriptionnelle du récepteur des lipoprotéines de faible densité (LDLr) dans les hépatocytes et augmente le LDL-cholestérol dans le plasma. Cependant, il n’est pas clair si la PCSK9 joue un rôle dans l’intestin. Dans cette étude, nous caractérisons les variations de la PCSK9 et du LDLr dans les cellules Caco-2/15 différentiées en fonction d’une variété d’effecteurs potentiels. Le cholestérol (100 µM) lié à l’albumine ou présenté en micelles a réduit de façon significative l’expression génique (30%, p<0,05) et l’expression protéique (50%, p<0,05) de la PCSK9. Étonnamment, une diminution similaire dans le LDLr protéique a été enregistrée (45%, p<0,05). Les cellules traitées avec le 25-hydroxycholestérol (50 µM) présentent également des réductions significatives dans l’ARNm (37%, p<0,01) et la protéine (75%, p<0,001) de la PCSK9. Une baisse des expressions génique (30%, p<0,05) et protéique (57%, p<0,01) a également été constatée dans le LDLr. Des diminutions ont aussi été observées pour la HMG CoA réductase et la protéine liant l’élément de réponse aux stérols SREBP-2. Il a été démontré que le SREBP-2 peut activer transcriptionnellement la PCSK9 par le biais de la liaison de SREBP-2 à son élément de réponse aux stérols situé dans la région proximale du promoteur de la PCSK9. Inversement, la déplétion du contenu cellulaire en cholestérol par l’hydroxypropyl-β-cyclodextrine a augmenté l’expression génique de la PCSK9 (20%, p<0,05) et son contenu protéique (540%, p<0,001), en parallèle avec les niveaux protéiques de SREBP-2. L’ajout des acides biliaires taurocholate et déoxycholate dans le milieu apical des cellules intestinales Caco-2/15 a provoqué une baisse d’expression génique (30%, p<0,01) et une hausse d’expression protéique (43%, p<0,01) de la PCSK9 respectivement, probablement via la modulation du FXR (farnesoid X receptor). Ces données combinées semblent donc indiquer que la PCSK9 fonctionne comme un senseur de stérols dans le petit intestin.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les études génétiques, telles que les études de liaison ou d’association, ont permis d’acquérir une plus grande connaissance sur l’étiologie de plusieurs maladies affectant les populations humaines. Même si une dizaine de milliers d’études génétiques ont été réalisées sur des centaines de maladies ou autres traits, une grande partie de leur héritabilité reste inexpliquée. Depuis une dizaine d’années, plusieurs percées dans le domaine de la génomique ont été réalisées. Par exemple, l’utilisation des micropuces d’hybridation génomique comparative à haute densité a permis de démontrer l’existence à grande échelle des variations et des polymorphismes en nombre de copies. Ces derniers sont maintenant détectables à l’aide de micropuce d’ADN ou du séquençage à haut débit. De plus, des études récentes utilisant le séquençage à haut débit ont permis de démontrer que la majorité des variations présentes dans l’exome d’un individu étaient rares ou même propres à cet individu. Ceci a permis la conception d’une nouvelle micropuce d’ADN permettant de déterminer rapidement et à faible coût le génotype de plusieurs milliers de variations rares pour un grand ensemble d’individus à la fois. Dans ce contexte, l’objectif général de cette thèse vise le développement de nouvelles méthodologies et de nouveaux outils bio-informatiques de haute performance permettant la détection, à de hauts critères de qualité, des variations en nombre de copies et des variations nucléotidiques rares dans le cadre d’études génétiques. Ces avancées permettront, à long terme, d’expliquer une plus grande partie de l’héritabilité manquante des traits complexes, poussant ainsi l’avancement des connaissances sur l’étiologie de ces derniers. Un algorithme permettant le partitionnement des polymorphismes en nombre de copies a donc été conçu, rendant possible l’utilisation de ces variations structurales dans le cadre d’étude de liaison génétique sur données familiales. Ensuite, une étude exploratoire a permis de caractériser les différents problèmes associés aux études génétiques utilisant des variations en nombre de copies rares sur des individus non reliés. Cette étude a été réalisée avec la collaboration du Wellcome Trust Centre for Human Genetics de l’University of Oxford. Par la suite, une comparaison de la performance des algorithmes de génotypage lors de leur utilisation avec une nouvelle micropuce d’ADN contenant une majorité de marqueurs rares a été réalisée. Finalement, un outil bio-informatique permettant de filtrer de façon efficace et rapide des données génétiques a été implémenté. Cet outil permet de générer des données de meilleure qualité, avec une meilleure reproductibilité des résultats, tout en diminuant les chances d’obtenir une fausse association.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper introduces and examines the logicist construction of Peano Arithmetic that can be performed into Leśniewski’s logical calculus of names called Ontology. Against neo-Fregeans, it is argued that a logicist program cannot be based on implicit definitions of the mathematical concepts. Using only explicit definitions, the construction to be presented here constitutes a real reduction of arithmetic to Leśniewski’s logic with the addition of an axiom of infinity. I argue however that such a program is not reductionist, for it only provides what I will call a picture of arithmetic, that is to say a specific interpretation of arithmetic in which purely logical entities play the role of natural numbers. The reduction does not show that arithmetic is simply a part of logic. The process is not of ontological significance, for numbers are not shown to be logical entities. This neo-logicist program nevertheless shows the existence of a purely analytical route to the knowledge of arithmetical laws.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Rapport de recherche