495 resultados para Modélisation
Resumo:
Doctorat réalisé en cotutelle entre l'Université de Montréal et l'Université Paul Sabatier-Toulouse III
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Le ministère de l’Éducation, du Loisir et du Sport (MELS) publie tous les ans des indicateurs (MELS, 2007) qui traitent de plusieurs aspects du système scolaire québécois. Quoique le MELS insiste sur l’obligation pour les écoles primaires et secondaires d’obtenir des résultats probants en termes d’« efficacité », les indicateurs utilisés pour apprécier la performance des écoles ne sont pas nécessairement conçus à cette fin. Une étude du MELS rapporte que les élèves de 5e secondaire éprouvent de la difficulté à obtenir de bons résultats à deux critères de correction (syntaxe et ponctuation, orthographe), parmi les six de l’épreuve unique de français écrit (MELS, 2008). Ce fait nous amène à nous intéresser à l’étude de la modélisation des liens entre des facteurs associés à l’environnement scolaire et les résultats des élèves de la région métropolitaine de Montréal, en ce qui a trait à ces deux critères pour les cohortes des années 2006, 2007 et 2008. Nous procédons d’abord à des analyses descriptives des variables pour chacune des trois populations. Nous poursuivons l’analyse en effectuant plusieurs modélisations multiniveaux multivariées des deux critères en fonction de variables indépendantes, caractéristiques de l’élève et de l’école. Les résultats de la présente recherche indiquent une relative stabilité dans la performance des élèves pour les trois années, avec une légère amélioration de la performance pour la cohorte de 2007, et qui se maintient pour la cohorte de 2008. Les élèves du secteur privé obtiennent de meilleurs résultats que ceux du public. Le résultat des filles est supérieur à celui des garçons et les élèves de langue maternelle française obtiennent de meilleurs résultats que ceux de langues maternelles différentes du français. Il importe cependant d’apporter quelques nuances dans l’interprétation de ces résultats. En outre, la part de variance dans la performance des élèves attribuable à l’élève est de l’ordre de 75,0 % et de l’ordre de 25,0 % à l’école. On note un effet différentiel des facteurs d’élève et d’école selon le critère considéré. Les variables caractéristiques de l’élève comptent pour 13,9 % de la variance totale de la performance des élèves en syntaxe et ponctuation et pour 9,8 % en orthographe. Les variables caractéristiques de l’école comptent pour 3,7 % de la variance totale de la performance des élèves en syntaxe et ponctuation et pour 6,4 % en orthographe. Certains facteurs d’école, comme la taille, la mixité ne semblent pas présenter un lien significatif avec la performance des élèves.
Resumo:
Cette recherche porte sur l’interface entre la sémantique lexicale et la syntaxe, et elle s’inscrit dans le cadre du projet de base lexicale DiCo (acronyme pour Dictionnaire de combinatoire) à l’Observatoire de Linguistique Sens-Texte [OLST] de l’Université de Montréal. Le projet découle d'une volonté d'inscrire de façon concise et complète, à même le dictionnaire, le comportement syntaxique typique à chaque unité lexicale. Dans cette optique, nous encodons la cooccurrence des lexies nominales du DiCo avec leurs actants à l'intérieur d'un tableau de régime lexical (aussi connu sous le nom de schéma valenciel, structure argumentale, cadre de sous-catégorisation, structure prédicats-arguments, etc.), en notant entre autres les dépendances syntaxiques de surface impliquées. Dans ce mémoire, nous présentons les propriétés syntaxiques d'une dépendance nominale du français, celle que nous avons nommée attributive adnominale, de façon à exposer une méthodologie d'identification et de caractérisation des dépendances syntaxiques de surface. Nous donnons également la liste des dépendances nominales régies identifiées au cours de ce travail. Par la suite, nous exposons la création d'une base de données de régimes généralisés du français nommée CARNAVAL. Finalement, nous discutons des applications possibles de notre travail, particulièrement en ce qui a trait à la création d'une typologie des régimes lexicaux du français.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
L'épaule est un complexe articulaire formé par le thorax, la clavicule, la scapula et l'humérus. Alors que les orientation et position de ces derniers la rendent difficile à étudier, la compréhension approfondie de l'interrelation de ces segments demeure cliniquement importante. Ainsi, un nouveau modèle du membre supérieur est développé et présenté. La cinématique articulaire de 15 sujets sains est collectée et reconstruite à l'aide du modèle. Celle-ci s'avère être généralement moins variable et plus facilement interprétable que le modèle de référence. Parallèlement, l'utilisation de simplifications, issues de la 2D, sur le calcul d'amplitude de mouvement en 3D est critiquée. Cependant, des cas d'exception où ces simplifications s'appliquent sont dégagés et prouvés. Ainsi, ils sont une éventuelle avenue d'amélioration supplémentaire des modèles sans compromission de leur validé.
Resumo:
Les simulations ont été implémentées avec le programme Java.
Resumo:
L'évaluation des risques de l'exposition aux mélanges de produits chimiques par voies multiples peut être améliorée par une compréhension de la variation de la dose interne due à l’interaction entre les produits. Les modèles pharmacocinétiques à base physiologique (PBPK) sont des outils éprouvés pour prédire l'ampleur de ces variations dans différents scénarios. Dans cette étude, quatre composés organiques volatils (COV) (toluène, nhexane, cyclohexane et isooctane) ont été choisis pour représenter des produits pétroliers (essence) pouvant contaminer l'eau potable. Premièrement, les modèles PBPK ont simulé l'exposition à un seul COV par une voie (inhalation ou gavage). Ensuite, ces modèles ont été interconnectés pour simuler l'exposition à un mélange par voies multiples. Les modèles ont été validés avec des données in vivo chez des rats Sprague-Dawley (n=5) exposés par inhalation (50 ppm ; toluène, hexane, et 300 ppm ; cyclohexane, isooctane; 2-h) ou par gavage (8,3; 5,5; 27,9 et 41,27 mg/kg pour le toluène, l’hexane, le cyclohexane et l’isooctane, respectivement). Des doses similaires ont été utilisées pour l'exposition au mélange par voies multiples. Les AUC (mg/L x min) pour le toluène, l'hexane, le cyclohexane et l'isooctane étaient respectivement de 157,25; 18,77; 159,58 et 176,54 pour les données expérimentales, et 121,73; 21,91; 19,55 et 170,54 pour les modèles PBPK. Les résultats des modèles PBPK et les données in vivo (simple COV par voies multiples vs. mélange par voies multiples) ont montré des interactions entre les COVs dans le cas de l'exposition au mélange par voies multiples. Cette étude démontre l'efficacité des modèles PBPK pour simuler l'exposition aux mélanges de COV par voies multiples.
Resumo:
L’avancée des infrastructures informatiques a permis l’émergence de la modélisation moléculaire. À cet effet, une multitude de modèles mathématiques sont aujourd’hui disponibles pour simuler différents systèmes chimiques. À l’aide de la modélisation moléculaire, différents types d’interactions chimiques ont été observés. À partir des systèmes les plus simples permettant l’utilisation de modèles quantiques rigoureux, une série d’approximations a été considérée pour rendre envisageable la simulation de systèmes moléculaires de plus en plus complexes. En premier lieu, la théorie de la fonctionnelle de densité dépendante du temps a été utilisée pour simuler les énergies d’excitation de molécules photoactives. De manière similaire, la DFT indépendante du temps a permis la simulation du pont hydrogène intramoléculaire de structures analogues au 1,3,5-triazapentadiène et la rationalisation de la stabilité des états de transition. Par la suite, la dynamique moléculaire et la mécanique moléculaire ont permis de simuler les interactions d’un trimère d’acide cholique et d’un pyrène dans différents solvants. Cette même méthodologie a été utilisée pour simuler les interactions d’un rotaxane-parapluie à l’interface d’un système biphasique. Finalement, l’arrimage moléculaire et les fonctions de score ont été utilisés pour simuler les interactions intermoléculaires entre une protéine et des milliers de candidats moléculaires. Les résultats ont permis de mettre en place une stratégie de développement d’un nouvel inhibiteur enzymatique.
Resumo:
Les microARN (miARN) sont de petits ARN non-codants qui répriment la traduction de leurs gènes cibles par hybridation à leur ARN messager (ARNm). L'identification de cibles biologiquement actives de miARN est cruciale afin de mieux comprendre leurs rôles. Ce problème est cependant difficile parce que leurs sites ne sont définis que par sept nucléotides. Dans cette thèse je montre qu'il est possible de modéliser certains aspects des miARN afin d'identifier leurs cibles biologiquement actives à travers deux modélisations d'un aspect des miARN. La première modélisation s'intéresse aux aspects de la régulation des miARN par l'identification de boucles de régulation entre des miARN et des facteurs de transcription (FT). Cette modélisation a permis, notamment, d'identifier plus de 700 boucles de régulation miARN/FT, conservées entre l'humain et la souris. Les résultats de cette modélisation ont permis, en particulier, d'identifier deux boucles d'auto-régulation entre LMO2 et les miARN miR-223 et miR-363. Des expériences de transplantation de cellules souches hématopoïétiques et de progéniteurs hématopoïétiques ont ensuite permis d'assigner à ces deux miARN un rôle dans la détermination du destin cellulaire hématopoïétique. La deuxième modélisation s'intéresse directement aux interactions des miARN avec les ARNm afin de déterminer les cibles des miARN. Ces travaux ont permis la mise au point d'une méthode simple de prédiction de cibles de miARN dont les performances sont meilleures que les outils courant. Cette modélisation a aussi permis de mettre en lumière certaines conséquences insoupçonnées de l'effet des miARN, telle que la spécificité des cibles de miARN au contexte cellulaire et l'effet de saturation de certains ARNm par les miARN. Cette méthode peut également être utilisée pour identifier des ARNm dont la surexpression fait augmenter un autre ARNm par l'entremise de miARN partagés et dont les effets sur les ARNm non ciblés seraient minimaux.
Resumo:
Dans ce mémoire, nous proposons une méthodologie statistique permettant d’obtenir un estimateur de l’espérance de vie des clients en assurance. Les prédictions effectuées tiennent compte des caractéristiques individuelles des clients, notamment du fait qu’ils peuvent détenir différents types de produits d’assurance (automobile, résidentielle ou les deux). Trois approches sont comparées. La première approche est le modèle de Markov simple, qui suppose à la fois l’homogénéité et la stationnarité des probabilités de transition. L’autre modèle – qui a été implémenté par deux approches, soit une approche directe et une approche par simulations – tient compte de l’hétérogénéité des probabilités de transition, ce qui permet d’effectuer des prédictions qui évoluent avec les caractéristiques des individus dans le temps. Les probabilités de transition de ce modèle sont estimées par des régressions logistiques multinomiales.
Resumo:
Les données comptées (count data) possèdent des distributions ayant des caractéristiques particulières comme la non-normalité, l’hétérogénéité des variances ainsi qu’un nombre important de zéros. Il est donc nécessaire d’utiliser les modèles appropriés afin d’obtenir des résultats non biaisés. Ce mémoire compare quatre modèles d’analyse pouvant être utilisés pour les données comptées : le modèle de Poisson, le modèle binomial négatif, le modèle de Poisson avec inflation du zéro et le modèle binomial négatif avec inflation du zéro. À des fins de comparaisons, la prédiction de la proportion du zéro, la confirmation ou l’infirmation des différentes hypothèses ainsi que la prédiction des moyennes furent utilisées afin de déterminer l’adéquation des différents modèles. Pour ce faire, le nombre d’arrestations des membres de gangs de rue sur le territoire de Montréal fut utilisé pour la période de 2005 à 2007. L’échantillon est composé de 470 hommes, âgés de 18 à 59 ans. Au terme des analyses, le modèle le plus adéquat est le modèle binomial négatif puisque celui-ci produit des résultats significatifs, s’adapte bien aux données observées et produit une proportion de zéro très similaire à celle observée.
Resumo:
Des décennies d’observation ont permis d’obtenir différentes relations liées à l’activité stellaire. Cependant, il est difficile de reproduire numériquement celles-ci à partir de modèles dynamo, puisqu’il n’y a pas de consensus sur le processus réellement présent dans les étoiles. Nous tentons de reproduire certaines de ces relations avec un modèle global 3D hydrodynamique qui nous fournit le profil de rotation différentielle et le tenseur-α utilisés en entrée dans un modèle de dynamo αΩ. Nous reproduisons ainsi efficacement la corrélation positive entre le rapport P_cyc⁄P_rot et P_rot^(-1). Par contre, nous échouons à reproduire les relations liant ω_cyc⁄Ω et l’énergie magnétique au nombre de Rossby. Cela laisse croire que la variation de P_cyc⁄P_rot avec la période de rotation est une caractéristique robuste du modèle αΩ, mais que l’effet-α ne serait pas le processus principal limitant l’amplitude du cycle. Cette saturation découlerait plutôt de la réaction magnétique sur l’écoulement à grande échelle.
Resumo:
Cette thèse comporte trois essais sur les interactions sociales en sciences économiques. Ces essais s’intéressent à la fois au côté théeorique qu’empirique des interactions sociales. Le premier essai (chapitre 2) se concentre sur l’étude (théorique et empirique) de la formation de réseaux sociaux au sein de petites économies lorsque les individus ont des préférences homophilique et une contrainte de temps. Le deuxième essai (chapitre 3) se concentre sur l’étude (principalement empirique) de la formation de réseau sociaux au sein de larges économies où les comportement d’individus très distants sont aproximativement indépendants. Le dernier essai (chapitre 4) est une étude empirique des effets de pairs en éducation au sein des écoles secondaires du Québec. La méthode structurelle utilisée permet l’identification et l’estimation de l’effet de pairs endogène et des effets de pairs exogènes, tout en contrôlant pour la présence de chocs communs.