715 resultados para Utilité différentielle stochastique
Resumo:
L'éclatement est une transformation jouant un rôle important en géométrie, car il permet de résoudre des singularités, de relier des variétés birationnellement équivalentes, et de construire des variétés possédant des propriétés inédites. Ce mémoire présente d'abord l'éclatement tel que développé en géométrie algébrique classique. Nous l'étudierons pour le cas des variétés affines et (quasi-)projectives, en un point, et le long d'un idéal et d'une sous-variété. Nous poursuivrons en étudiant l'extension de cette construction à la catégorie différentiable, sur les corps réels et complexes, en un point et le long d'une sous-variété. Nous conclurons cette section en explorant un exemple de résolution de singularité. Ensuite nous passerons à la catégorie symplectique, où nous ferons la même chose que pour le cas différentiable complexe, en portant une attention particulière à la forme symplectique définie sur la variété. Nous terminerons en étudiant un théorème dû à François Lalonde, où l'éclatement joue un rôle clé dans la démonstration. Ce théorème affirme que toute 4-variété fibrée par des 2-sphères sur une surface de Riemann, et différente du produit cartésien de deux 2-sphères, peut être équipée d'une 2-forme qui lui confère une structure symplectique réglée par des courbes holomorphes par rapport à sa structure presque complexe, et telle que l'aire symplectique de la base est inférieure à la capacité de la variété. La preuve repose sur l'utilisation de l'éclatement symplectique. En effet, en éclatant symplectiquement une boule contenue dans la 4-variété, il est possible d'obtenir une fibration contenant deux sphères d'auto-intersection -1 distinctes: la pré-image du point où est fait l'éclatement complexe usuel, et la transformation propre de la fibre. Ces dernières sont dites exceptionnelles, et donc il est possible de procéder à l'inverse de l'éclatement - la contraction - sur chacune d'elles. En l'accomplissant sur la deuxième, nous obtenons une variété minimale, et en combinant les informations sur les aires symplectiques de ses classes d'homologies et de celles de la variété originale nous obtenons le résultat.
Resumo:
La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.
Resumo:
Au cours des dernières années, il est devenu évident que les sociétés des pays industrialisés sont à haut risque de maladies métaboliques. Une alimentation riche en énergie (lipide/glucide), combinée à une sédentarité accrue, est un facteur environnemental contribuant à l'augmentation de la prévalence de maladies reliées spécifiquement à des troubles endocriniens comme l'obésité et le diabète. Le traitement de ces désordres métaboliques doit donc passer par la connaissance et la compréhension des mécanismes moléculaires qui contrôlent ces désordres et le développement de traitements ciblés vers les facteurs responsables. Le tissu adipeux est une glande endocrine qui sécrète des substances, regroupées sous le terme d'adipokines, qui contrôlent l'homéostasie énergétique. L'augmentation de la masse adipeuse est responsable du développement de dérégulation hormonale qui mène à des dysfonctions physiologiques et métaboliques. Pour contrecarrer le développement démesuré du tissu adipeux, la signalisation insulinique ainsi que l’apport énergétique, responsables de la différenciation adipocytaire, doivent être inhibés. In vivo, la leptine, adipokine dont la concentration est corrélée à la masse adipeuse, présente des actions pro ou anti-insuliniques dans l’organisme pour réguler ce phénomène. Elle favorise l’effet inhibiteur de l’insuline sur la synthèse hépatique de glucose alors qu’elle s’oppose à son action sur l’expression des enzymes glucokinase et phosphoénol-pyruvate carboxykinase. La leptine influence aussi le taux circulant de triglycérides en diminuant sa concentration plasmatique. D'autre part, l'adiponectine, adipokine insulino- sensibilisante, voit sa sécrétion diminuée avec la prise de poids. La sensibilité à l'insuline est ainsi diminuée au fur et à mesure que le débalancement de ces deux adipokines s'accentue. La résistance à l'insuline s'installe alors pour s'opposer au stockage énergétique et à la prise illimitée de poids et la glycémie augmente. L'augmentation du glucose sanguin stimule la sécrétion d'insuline au niveau des cellules pancréatiques. C'est le diabète caractérisé par une hyperglycémie et une résistance à l'insuline. Le diabète, une des premières causes de mortalité dans le monde, est plus répandu sous sa forme non insulinodépendante (diabète de type 2, DT2) liée à l'obésité. Récemment, différents facteurs de transcription ont été identifiés comme régulateurs de l'expression d'une panoplie de gènes impliqués dans le métabolisme glucidique et lipidique. Parmi eux, les récepteurs des inducteurs de la prolifération des peroxysomes (PPAR, Peroxisome Proliferator-Activated Receptor), appartenant à la famille des récepteurs nucléaires. Les PPAR ont été démontrés comme ayant un rôle central dans le contrôle de la transcription des gènes codants pour des protéines impliquées dans le métabolisme : les adipokines. PPARg, en plus de son implication dans le contrôle de l'homéostasie glucidique et lipidique, est reconnu comme étant un facteur de transcription pivot régulant l'adipogenèse du fait de son expression majeure dans le tissu adipeux. D'autre part, il est bien établi maintenant que l'obésité et le diabète sont des facteurs contribuant au développement du processus inflammatoire vasculaire caractéristique de l’athérosclérose. En effet, les cellules endothéliales et musculaires lisses, principales composantes de la média de l’artère, sont très sensibles aux altérations métaboliques. Une diminution de la sensibilité à l’insuline entraine une réduction de la disponibilité du glucose et l’utilisation des acides gras comme alternatif par ces cellules. Ceci induit l’accumulation des acides gras oxydés dans l’intima et leur filtration dans la média pour former un core lipidique. Bien que l’induction de la dysfonction endothéliale soit impliquée très précocement, certaines études pointent l’accumulation lipidique dans les cellules musculaires lisses vasculaires (CML) et leur dysfonction comme déclencheurs de l’athérosclérose. Ce travail visait donc, dans un premier temps, à développer un modèle d'altérations métaboliques liées à la modulation de l'activité du tissu adipeux via une alimentation riche en lipides. Dans un second temps, cette étude tentait d'évaluer l’impact des adipocytes de souris sur les CML vasculaires et sur la modulation de leurs fonctions dans ce modèle d'altérations métaboliques et DT2 liés à l'alimentation et à l'obésité. Ainsi, par le biais de deux diètes pauvres en cholestérol à profil lipidique différent, nous avons développé un modèle murin présentant divers stades d'altérations du métabolisme allant jusqu'au DT2 en lien avec l'obésité chez les mâles et chez les femelles. D’autre part, des signes de cardiomyopathie ainsi qu’une modulation du taux des adipokines sont reliés à ces mêmes diètes. Parallèlement, l’activité de PPAR!2 est modulée chez les souris sous diètes enrichies en gras. Ensuite, nous avons démontré que les adipocytes, provenant de souris alimentées avec une diète enrichie en gras, modulaient la migration et la prolifération des CML comparativement au groupe contrôle. Ces modulations dépendaient en grande partie de la nature de la diète consommée, mais également du sexe de la souris. Par ailleurs, les altérations fonctionnelles des CML, couplées à des modulations géniques, sont associées aux changements du profil de sécrétion des adipokines mesurées chez les adipocytes. L’ensemble de ces travaux suggère une action directe de la nature de la stimulation du tissu adipeux blanc dans la modulation du profil de sécrétion des adipokines et l'induction du DT2 in vivo. Ces altérations de la physiologie adipocytaire se reflètent in vitro où le tissu adipeux contribue aux altérations physiopathologiques des CML liées au DT2. Ainsi, cette étude est l'une des premières à établir un lien direct entre les modulations adipocytaires et les effets de leurs sécrétions sur la physiologie des CML. Ces observations peuvent être exploitées cliniquement dans un développement futur d’outils thérapeutiques visant à prévenir et à traiter les troubles métaboliques et le DT2, en ciblant le tissu adipeux comme entité métabolique et endocrine.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Introduction : Les soins dentaires des enfants autistes représentent un défi pour les parents et les dentistes. Des efforts doivent être faits afin d’améliorer les mesures préventives et l’éducation des parents. Recension des écrits : L’autisme se définit comme un désordre qualitatif de l’interaction sociale et de la communication, par des comportements ou activités répétitifs et stéréotypés et par de l’hypersensibilité aux stimuli corporels. Le manque de coopération pour le brossage des dents constitue un obstacle au maintien d’une bonne hygiène bucco-dentaire chez l’enfant autiste. Problématique : L’enfant autiste représente un défi pour le dentiste, mais aussi pour ses parents lors des mesures quotidiennes d’hygiène. Peu d’études cliniques se sont penchées sur l’utilité des pictogrammes dans la dispensation des soins dentaires quotidiens et professionnels de cette clientèle. Hypothèse de recherche : L’utilisation de pictogrammes améliore la coopération des enfants autistes pour les soins dentaires quotidiens et chez le dentiste, leur procurant une meilleure hygiène bucco-dentaire. Matériels et méthodes : Selon un devis d’étude expérimentale randomisée, 17 participants expérimentaux (avec pictogrammes) et 18 participants contrôles ont été recrutés au CHU Sainte-Justine, puis évalués à 6 reprises sur 12 mois. L’hygiène fut notée par l’indice de plaque et le comportement par l’échelle de Frankl. Résultats : Aucune différence significative n’a été notée entre le groupe expérimental et contrôle pour l’indice de plaque et l’échelle de Frankl. Globalement, une baisse de l’indice de plaque et une amélioration du comportement ont été notées pour les deux groupes et ce, pendant la période d’étude de 12 mois. Conclusion : Les résultats de la présente étude ne permettent pas d’affirmer que les pictogrammes contribuent à améliorer l’hygiène bucco-dentaire et le comportement des enfants autistes lors des soins dentaires quotidiens et professionnels.
Resumo:
Les traits quantitatifs complexes sont des caractéristiques mesurables d’organismes vivants qui résultent de l’interaction entre plusieurs gènes et facteurs environnementaux. Les locus génétiques liés à un caractère complexe sont appelés «locus de traits quantitatifs » (QTL). Récemment, en considérant les niveaux d’expression tissulaire de milliers de gènes comme des traits quantitatifs, il est devenu possible de détecter des «QTLs d’expression» (eQTL). Alors que ces derniers ont été considérés comme des phénotypes intermédiaires permettant de mieux comprendre l’architecture biologique des traits complexes, la majorité des études visent encore à identifier une mutation causale dans un seul gène. Cette approche ne peut remporter du succès que dans les situations où le gène incriminé a un effet majeur sur le trait complexe, et ne permet donc pas d’élucider les situations où les traits complexes résultent d’interactions entre divers gènes. Cette thèse propose une approche plus globale pour : 1) tenir compte des multiples interactions possibles entre gènes pour la détection de eQTLs et 2) considérer comment des polymorphismes affectant l’expression de plusieurs gènes au sein de groupes de co-expression pourraient contribuer à des caractères quantitatifs complexes. Nos contributions sont les suivantes : Nous avons développé un outil informatique utilisant des méthodes d’analyse multivariées pour détecter des eQTLs et avons montré que cet outil augmente la sensibilité de détection d’une classe particulière de eQTLs. Sur la base d’analyses de données d’expression de gènes dans des tissus de souris recombinantes consanguines, nous avons montré que certains polymorphismes peuvent affecter l’expression de plusieurs gènes au sein de domaines géniques de co-expression. En combinant des études de détection de eQTLs avec des techniques d’analyse de réseaux de co-expression de gènes dans des souches de souris recombinantes consanguines, nous avons montré qu’un locus génétique pouvait être lié à la fois à l’expression de plusieurs gènes au niveau d’un domaine génique de co-expression et à un trait complexe particulier (c.-à-d. la masse du ventricule cardiaque gauche). Au total, nos études nous ont permis de détecter plusieurs mécanismes par lesquels des polymorphismes génétiques peuvent être liés à l’expression de plusieurs gènes, ces derniers pouvant eux-mêmes être liés à des traits quantitatifs complexes.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
Les implications philosophiques de la Théorie de la Perspective de 1979, notamment celles qui concernent l’introduction d’une fonction de valeur sur les résultats et d’un coefficient de pondération sur les probabilités, n’ont à ce jour jamais été explorées. Le but de ce travail est de construire une théorie philosophique de la volonté à partir des résultats de la Théorie de la Perspective. Afin de comprendre comment cette théorie a pu être élaborée il faut étudier la Théorie de l’Utilité Attendue dont elle est l’aboutissement critique majeur, c’est-à-dire les axiomatisations de la décision de Ramsey (1926), von Neumann et Morgenstern (1947), et enfin Savage (1954), qui constituent les fondements de la théorie classique de la décision. C’est entre autres la critique – par l’économie et la psychologie cognitive – du principe d’indépendance, des axiomes d’ordonnancement et de transitivité qui a permis de faire émerger les éléments représentationnels subjectifs à partir desquels la Théorie de la Perspective a pu être élaborée. Ces critiques ont été menées par Allais (1953), Edwards (1954), Ellsberg (1961), et enfin Slovic et Lichtenstein (1968), l’étude de ces articles permet de comprendre comment s’est opéré le passage de la Théorie de l’Utilité Attendue, à la Théorie de la Perspective. À l’issue de ces analyses et de celle de la Théorie de la Perspective est introduite la notion de Système de Référence Décisionnel, qui est la généralisation naturelle des concepts de fonction de valeur et de coefficient de pondération issus de la Théorie de la Perspective. Ce système, dont le fonctionnement est parfois heuristique, sert à modéliser la prise de décision dans l’élément de la représentation, il s’articule autour de trois phases : la visée, l’édition et l’évaluation. À partir de cette structure est proposée une nouvelle typologie des décisions et une explication inédite des phénomènes d’akrasie et de procrastination fondée sur les concepts d’aversion au risque et de surévaluation du présent, tous deux issus de la Théorie de la Perspective.
Resumo:
Cette thèse est divisée en deux grands chapitres, dont le premier porte sur des problèmes de commande optimale en dimension un et le deuxième sur des problèmes en dimension deux ou plus. Notons bien que, dans cette thèse, nous avons supposé que le facteur temps n'intervient pas. Dans le premier chapitre, nous calculons, au début, l'équation de programmation dynamique pour la valeur minimale F de l'espérance mathématique de la fonction de coût considérée. Ensuite, nous utilisons le théorème de Whittle qui est applicable seulement si une condition entre le bruit blanc v et les termes b et q associés à la commande est satisfaite. Sinon, nous procédons autrement. En effet, un changement de variable transforme notre équation en une équation de Riccati en G= F', mais sans conditions initiales. Dans certains cas, à partir de la symétrie des paramètres infinitésimaux et de q, nous pouvons en déduire le point x' où G(x')=0. Si ce n'est pas le cas, nous nous limitons à des bonnes approximations. Cette même démarche est toujours possible si nous sommes dans des situations particulières, par exemple, lorsque nous avons une seule barrière. Dans le deuxième chapitre, nous traitons les problèmes en dimension deux ou plus. Puisque la condition de Whittle est difficile à satisfaire dans ce cas, nous essayons de généraliser les résultats du premier chapitre. Nous utilisons alors dans quelques exemples la méthode des similitudes, qui permet de transformer le problème en dimension un. Ensuite, nous proposons une nouvelle méthode de résolution. Cette dernière linéarise l'équation de programmation dynamique qui est une équation aux dérivées partielles non linéaire. Il reste à la fin à trouver les conditions initiales pour la nouvelle fonction et aussi à vérifier que les n expressions obtenues pour F sont équivalentes.
Resumo:
Réalisé sous la co-direction de Pierre Tremblay
Resumo:
Au Canada, la prévalence de l'intimidation par les pairs (IPP) est estimée à environ 20 %. L'IPP est associée à de nombreuses difficultés sur le rendement scolaire et le fonctionnement émotionnel, cognitif et comportemental de la victime. Afin de s'investir dans la lutte contre l'IPP, le Québec a promulgué en 2012 la Loi visant à lutter contre l'intimidation et la violence à l'école. Ainsi, les écoles ont pour obligation d'instaurer un plan d'action contre l'intimidation. Toutefois, les services d'aide aux victimes sont parfois limités. C'est pourquoi l'application mobile « +Fort » a été développée. +Fort vise à soutenir les victimes d'IPP à réduire leurs expériences et à prévenir les difficultés associées. Le présent mémoire a trois objectifs: (1) décrire l'expérience des victimes d'IPP ayant utilisé +Fort pendant quatre semaines, (2) effectuer une première appréciation de l'utilité de +Fort à partir des récits des victimes et (3) décrire comment +Fort soutien les jeunes à réduire leurs expériences d'intimidation. Des entrevues semi-dirigées ont été menées auprès de 12 victimes d'IPP (12 à 16 ans) de la région de Montréal puis analysées thématiquement. Les résultats suggèrent que +Fort agirait comme un facilitateur dans les démarches de changement des victimes pour réduire l'IPP. Les ressources offertes par +Fort procureraient aussi une impression de soutien aux victimes qui influencerait ensuite leur désir et leur motivation à entreprendre des actions pour que cesse l'intimidation. Ainsi, les technologies mobiles représenteraient une plateforme attrayante pour soutenir le mieux-être des jeunes vivant de l'intimidation.
Resumo:
Le sommeil est un besoin vital et le bon fonctionnement de l’organisme dépend de la quantité et de la qualité du sommeil. Le sommeil est régulé par deux processus : un processus circadien qui dépend de l’activité des noyaux suprachiasmatiques de l’hypothalamus et qui régule le moment durant lequel nous allons dormir, et un processus homéostatique qui dépend de l’activité neuronale et se reflète dans l’intensité du sommeil. En effet, le sommeil dépend de l’éveil qui le précède et plus l’éveil dure longtemps, plus le sommeil est profond tel que mesuré par des marqueurs électroencéphalographiques (EEG). Des études ont montré que le bon fonctionnement de ces deux processus régulateurs du sommeil dépend de la plasticité synaptique. Ainsi, les éléments synaptiques régulant la communication et la force synaptique sont d’importants candidats pour agir sur la physiologie de la régulation du sommeil. Les molécules d’adhésion cellulaire sont des acteurs clés dans les mécanismes de plasticité synaptique. Elles régulent l’activité et la maturation des synapses. Des études ont montré que leur absence engendre des conséquences similaires au manque de sommeil. Le but de ce projet de thèse est d’explorer l’effet de l’absence de deux familles de molécule d’adhésion cellulaire, les neuroligines et la famille des récepteur Eph et leur ligand les éphrines dans les processus régulateurs du sommeil. Notre hypothèse est que l’absence d’un des membres de ces deux familles de molécule affecte les mécanismes impliqués dans le processus homéostatique de régulation du sommeil. Afin de répondre à notre hypothèse, nous avons étudié d’une part l’activité EEG chez des souris mutantes n’exprimant pas Neuroligine‐1 (Nlgn1) ou le récepteur EphA4 en condition normale et après une privation de sommeil. D’autre part, nous avons mesuré les changements moléculaires ayant lieu dans ces deux modèles après privation de sommeil. Au niveau de l’activité EEG, nos résultats montrent que l’absence de Nlgn1 augmente la densité des ondes lentes en condition normale et augment l’amplitude et la pente des ondes lentes après privation de sommeil. Nlgn1 est nécessaire au fonctionnement normal de la synchronie corticale, notamment après une privation de sommeil, lui attribuant ainsi un rôle clé dans l’homéostasie du sommeil. Concernant le récepteur EphA4, son absence affecte la durée du sommeil paradoxal ainsi que l’activité sigma qui dépendent du processus circadien. Nos résultats suggèrent donc que ce récepteur est un élément important dans la régulation circadienne du sommeil. Les changements transcriptionnels en réponse à la privation de sommeil des souris n’exprimant pas Nlgn1 et EphA4 ne sont pas différents des souris sauvages. Toutefois, nous avons montré que la privation de sommeil affectait la distribution des marques épigénétiques sur le génome, tels que la méthylation et l’hydroxyméthylation, et que l’expression des molécules régulant ces changements est modifiée chez les souris mutantes pour le récepteur EphA4. Nos observations mettent en évidence que les molécules d’adhésion cellulaire, Nlgn1 et le récepteur EphA4, possèdent un rôle important dans les processus homéostatique et circadien du sommeil et contribuent de manière différente à la régulation du sommeil.