997 resultados para Modèles markoviens cachés
Resumo:
Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.
Resumo:
Nous présentons nos grilles de modèles d'atmosphères pour les étoiles sous-naines chaudes de type O (sdO) soit : des modèles classiques hors-ETL H, He, des modèles hors-ETL avec, en plus, du C, N, O et finalement des modèles incluant C, N, O, Fe. En utilisant les raies de Balmer et d'hélium dans le domaine du visible, nous avons fait des comparaisons entre les spectres théoriques de nos différentes grilles afin de caractériser les effets des métaux. On trouve que ces effets dépendent à la fois de la température et de la gravité. De plus, l'abondance d'hélium a une influence importante sur les effets des métaux; une abondance d'hélium faible (log N(He)/N(H) < -1,5) occasionne des effets assez importants alors qu'une abondance plus élevée tend à réduire ces mêmes effets. Nous avons aussi trouvé que l'ajout du fer (en abondance solaire) ne cause que des changements relativement faibles à la structure en température et, par le fait même, aux profils des raies d'hydrogène et d'hélium, par rapport aux changements déjà produits par le C, N, O (en abondance solaire). Nous avons utilisé nos grilles pour faire une analyse spectroscopique du spectre à haut signal sur bruit (180) et basse résolution (9 Å) de SDSS J160043.6+074802.9 obtenu au télescope Bok. Notre meilleure ajustement a été obtenu avec notre grille de spectres synthétiques incluant C, N, O et Fe en quantité solaire, menant aux paramètres suivants : Teff = 68 500 ± 1770 K, log g = 6,09 ± 0,07, and log N(He)/N(H) = -0,64 ± 0,05, où les incertitudes proviennent uniquement de la procédure d'ajustement. Ces paramètres atmosphériques, particulièrement la valeur de l'abondance d'hélium, placent notre étoile dans une région où les effets des métaux ne sont pas très marqués.
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Resumo:
Travail réalisé en cotutelle avec l'université Paris-Diderot et le Commissariat à l'Energie Atomique sous la direction de John Harnad et Bertrand Eynard.
Resumo:
Les cardiomyopathies sont une atteinte du myocarde qui se présente sous différentes formes telles que l’hypertrophie ou la dilatation des chambres cardiaques. Ces maladies du muscle cardiaque peuvent affecter la contraction cardiaque et dégénèrer en insuffisance cardiaque. Aussi, l’hypertrophie et l’insuffisance cardiaques sont associées à une augmentation de la morbidité et de la mortalité cardiovasculaires principalement due au remodelage électrique et à la survenue d’arythmies. De plus, le retard de repolarisation, associé à une diminution des courants K+, est un des troubles cardiaques les plus couramment observés lors de ces pathologies cardiaques. L’angiotensine II (Ang II) et la norépinéphrine, principaux effecteurs du système rénine-angiotensine et du système nerveux sympathique, peuvent tous deux agir directement sur le cœur en liant les récepteurs de type 1 de l’Ang II (AT1) et les récepteurs adrénergiques. L’Ang II et la norépinéphrine sont associées au développement des cardiomyopathies, au remodelage cardiaque et à une prolongation de la durée du potentiel d'action cardiaque. Deux modèles de souris trangéniques surexprimant spécifiquement au niveau cardiaque les récepteurs AT1 (la souris AT1R) ou les récepteurs α1B-adrénergiques (la souris α1B-AR) ont été créés afin d’étudier les effets de ces stimuli sur le cœur. Ces deux modèles de souris développent du remodelage cardiaque, soit de l’hypertrophie chez les souris AT1R (cardiomyopathie hypertrophique) ou une dilatation des chambres cardiaques chez les souris α1B-AR (cardiomyopathie dilatée). Au stade avancé de la maladie, les deux modèles de souris transgéniques sont insuffisants cardiaques. Des données préliminaires ont aussi montré que les souris AT1R et les souris α1B-AR ont une incidence accrue d’arythmies ainsi qu’une prolongation de la durée du potentiel d’action. De plus, ces deux modèles de souris meurent subitement et prématurément, ce qui laissait croire qu’en conditions pathologiques, l’activation des récepteurs AT1 ou des récepteurs α1B-adrénergiques pouvait affecter la repolarisation et causer l’apparition d’arythmies graves. Ainsi, l’objectif de ce projet était de caractériser la repolarisation ventriculaire des souris AT1R et α1B-AR afin de déterminer si la suractivation chronique des récepteurs de l’Ang II ou des récepteurs 1B-adrénergiques pouvait affecter directement les paramètres électrophysiologiques et induire des arythmies. Les résultats obtenus ont révélé que les souris AT1R et les souris α1B-AR présentent un retard de repolarisation (prolongation de l’intervalle QTc (dans l’électrocardiogramme) et de la durée du potentiel d’action) causé par une diminution des courants K+ (responsables de la repolarisation). Aussi, l’incidence d’arythmies est plus importante dans les deux groupes de souris transgéniques comparativement à leur contrôle respectif. Finalement, nous avons vu que les troubles de repolarisation se produisent également dans les groupes de souris transgéniques plus jeunes, avant l’apparition de l’hypertrophie ou du remodelage cardiaque. Ces résultats suggèrent qu’en conditions pathologiques, l’activation chronique des récepteurs de l’Ang II ou des récepteurs α1B-adrénergiques peut favoriser le développement d’arythmies en retardant la repolarisation et cela, indépendamment de changements hémodynamiques ou du remodelage cardiaque. Les résultats de ces études pourront servir à comprendre les mécanismes responsables du développement d’arythmies cardiaques lors du remodelage et de l’insuffisance cardiaques et pourraient aider à optimiser le choix des traitements chez ces patients atteints ou à risque de développer de l’hypertrophie ou du remodelage cardiaque.
Resumo:
Thèse en cotutelle avec Université de Nantes - Pays de La Loire - France (2005-2010)
Resumo:
On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.
Resumo:
Le cancer épithélial de l’ovaire (EOC) est le plus mortel des cancers gynécologiques. Cette maladie complexe progresse rapidement de façon difficilement décelable aux stades précoces. De plus, malgré une chirurgie cytoréductive et des traitements de chimiothérapie le taux de survie des patientes diagnostiquées aux stades avancées demeurt faible. Dans le but d’étudier l’EOC dans un contexte ex vivo, l’utilisation de modèles cellulaires est indispensable. Les lignées cellulaires d’EOC sont un outil pratique pour la recherche cependant, la façon dont l'expression des gènes est affectée en culture par comparaison à la tumeur d'origine n'est pas encore bien élucidée. Notre objectif était donc de développer et de caractériser de nouveaux modèles de culture in vitro qui réflèteront plus fidèlement la maladie in vivo. Nous avons tout d’abord utiliser des lignées cellulaires disponibles au laboratoire afin de mettre au point un modèle 3D de culture in vitro d’EOC. Des sphéroïdes ont été générés à l’aide de la méthode des gouttelettes inversées, une méthode pionnière pour la culture des cellules tumorales. Nous avons ensuite procédé à une analyse des profils d’expression afin de comparer le modèle sphéroïde au modèle de culture en monocouche et le modèle xénogreffe in vivo. Ainsi, nous avons identifié des gènes stratifiant les modèles tridimensionnels, tant in vivo qu’in vitro, du modèle 2D monocouche. Parmi les meilleurs candidats, nous avons sélectionné S100A6 pour une caractérisation ultérieure. L’expression de ce gène fût modulée afin d’étudier l’impact de son inhibition sur les paramètres de croissance des sphéroïdes. L’inhibition de ce gène a comme effet de réduire la motilité cellulaire mais seulement au niveau du modèle sphéroïde. Finalement, toujours dans l’optique de développer des modèles d’EOC les plus représentatifs de la maladie in vivo, nous avons réussi à développer des lignées cellulaires uniques dérivées de patientes atteintes d’EOC du type séreux, soit le plus commun des EOC. Jusque là, très peu de lignées cellulaires provenant de ce type de cancer et de patientes n’ayant pas reçu de chimiothérapie ont été produites. De plus, nous avons pour la première fois caractérise des lignées d’EOC de type séreux provenant à la fois de l’ascite et de la tumeur solide de la même patiente.
Resumo:
Durant une infection pulmonaire, les porcs sont souvent infectés par plus d’un microorganisme. Actinobacillus pleuropneumoniae et le virus du syndrome reproducteur et respiratoire porcin (VSRRP) sont des pathogènes qui peuvent infecter de manière simultanée les porcs. L’objectif du présent projet est d’étudier l’interaction entre ces pathogènes. Les deux lignées cellulaires permissives au VSRRP utilisées sont les cellules « St-Jude porcine lung » (SJPL) et MARC-145. Les cellules ont été pré-infectées avec le VSRRP, puis infectées avec A. pleuropneumoniae. Un dosage de la lactate déshydrogénase a montré qu’une co-infection VSRRP-A. pleuropneumoniae comparée à une infection simple augmente significativement la cytotoxicité. Dans les mêmes conditions expérimentales, une pré-infection virale ne semble pas affecter l’adhérence d’A. pleuropneumoniae aux cellules. À l’aide de tests ELISA, il a été possible de démontrer la production d’IL-8 et d’INF-γ lorsqu’il y a infection des cellules. Pour ce qui est du TNF-α, d’IL-6 et d’IL-10, ces cytokines ne sont pas détectées en présence des pathogènes étudiés. Des expériences de pré-infection bactérienne suivie d’infection virale ont également été réalisées. Il a été démontré que la pré-infection avec A. pleuropneumoniae diminuait la réplication du VSRRP chez la lignée cellulaire SJPL, mais cela n’est pas observé avec la lignée cellulaire MARC-145. Les résultats préliminaires ont démontré que cette diminution de la réplication serait causée par une molécule de faible poids moléculaire sécrétée dans le surnageant bactérien et celle-ci serait résistante à la chaleur. Les lignées cellulaires SJPL et MARC-145 représentent de bons modèles pour l’étude des infections mixtes des voies respiratoires du porc.
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Dans ce mémoire, nous avons utilisé le logiciel R pour la programmation.
Resumo:
La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.