997 resultados para Modèles concéptuels
Resumo:
Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat.
Resumo:
Les antipsychotiques (APs) sont fréquemment prescrits pour les troubles comportementaux associés à la démence. Or, ces produits ont fait l'objet de trois mises en garde (2002, 2004, 2005) en raison d'une augmentation du risque d'événement cérébrovasculaire et de décès. L’objectif de ce mémoire est d’évaluer l'utilisation d’APs dans la population de personnes âgées démentes vivant à domicile, et de déterminer l’effet des mises en garde sur les profils observés. Une cohorte rétrospective de 10,969 personnes âgées démentes ayant débuté un traitement par AP entre le 1er janvier 2000 et le 31 décembre 2009 fut identifiée à partir des banques de données de la Régie de l'assurance maladie du Québec (RAMQ). Des séries chronologiques segmentées ont permis de quantifier l’effet des mises en garde sur l'utilisation d’APs. L'effet de la mise en garde de 2005 sur les caractéristiques des patients traités ainsi que sur les profils d'utilisation (dose et durée) a été évalué, respectivement par des modèles de régression logistique et de régression linéaire multivariés. Le taux délivrance d'APs atypiques a augmenté au cours du temps jusqu'à la mise en garde de 2005 pour ensuite diminuer de 8.96% (IC 95% : -11.91% – -6.02%). L'analyse par produit a révélé la même tendance pour la rispéridone, le seul AP approuvé au Canada pour les personnes âgées démentes. En revanche, le taux de délivrance de quétiapine, qui est hors-indication, a continué d'augmenter. Le taux d'initiation de traitement par APs a cependant diminué au cours du temps pour tous les produits. Les mises en garde ne semblent pas être associées avec un changement dans les caractéristiques des patients traités, ni avec les doses et durées d’utilisation. Le manque d'efficacité des mises en garde est probablement en partie lié à l'absence d'alternatives thérapeutiques pour le traitement des troubles psychologiques et comportementaux chez les patients atteints de démence.
Resumo:
Cette recherche porte sur la dimension interprétative de l'intégration européenne et sur son rôle dans la démocratisation au sein des pays postcommunistes. Je focalise mon attention sur la signification pour les gens desdits pays que revêtent la participation politique, la compétence politique, et l’action collective. Cette signification prend forme selon des circonstances spécifiques, agencées par les relations de pouvoir asymétriques avec l’Union européenne (UE). J’examine la littérature sur le rôle de l'intégration européenne dans la démocratisation des pays postcommunistes et je distingue deux paradigmes théoriques principaux : un premier qui met l'accent sur le processus institutionnel, l’autre sur le processus instrumental stratégique. Au sein de ces deux approches, je présente différents auteurs qui voient l'UE soit comme un facteur pro-démocratique, soit comme un facteur antidémocratique dans le contexte postcommuniste de transition politique. Cette recherche ne suit pas théoriquement et méthodologiquement les études contenues dans la revue de la littérature. Plutôt, elle s’appuie sur un modèle théorique inspiré des recherches de McFalls sur la réunification culturelle allemande après 1989. Ce modèle, sans négliger les approches institutionnelles et stratégiques, met l’accent sur d'autres écoles théoriques, interprétatives et constructivistes. Mes conclusions se basent sur les résultats de séjours d'étude dans deux pays postcommunistes : la Bulgarie, membre de l'UE depuis 2007, et la Macédoine, pays-candidat. J’ai recours à des méthodes qualitatives et à des techniques ethnographiques qui triangulent des résultats puisés à des sources multiples et variées pour exposer des trajectoires dynamiques de changement culturel influencées par l'intégration européenne. Les conclusions montrent sous quelles conditions les idéaux-types de changement politique conventionnels, soit institutionnel ou stratégique, représentent des modèles utiles. Je présente aussi leurs limitations. Ma conclusion principale est que l'intégration européenne représente un phénomène complexe dans le monde des significations. C’est un facteur qui est simultanément un amplificateur et un inhibiteur de la culture politique démocratique. Les gens créent des sous-cultures différentes où des interprétations multiples du processus d'intégration européenne mènent à des effets dissemblables sur la participation politique, la compétence et l’action collective. La conversation discursive entre les gens qui composent de telles sous-cultures distinctes peut produire des effets divergents au niveau national. Cette recherche n’est pas une analyse de l’UE comme mécanisme institutionnel ; elle ne pose ainsi pas l’UE comme une institution qui détermine directement le processus de démocratisation postcommuniste. Plutôt, elle s’intéresse au processus d’intégration européenne en tant qu’interaction qui affecte la culture politique au sein des pays postcommunistes, et à la manière dont cette dernière peut agir sur le processus de démocratisation. Mon point d’intérêt central n’est donc pas l’européanisation ou le processus de devenir « comme l’Europe », à moins que l’européanisation ne devienne une composante de la culture politique avec des conséquences sur le comportement politique des acteurs.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Partout, des millions d'immigrants doivent apprendre à interagir avec une nouvelle culture (acculturation) et à s’y identifier (identification). Toutefois, il existe un débat important sur la relation entre l’acculturation et l’identification. Certains chercheurs les considèrent comme étant des concepts identiques; d’autres argumentent qu'un lien directionnel unit ces concepts (c.-à-d. l'identification mène à l'acculturation, ou l'acculturation mène à l'identification). Toutefois, aucune étude n'a pas investigué la nature et la direction de leur relation. Afin de clarifier ces questions, trois modèles théoriques testeront la relation entre l’acculturation et l’identification et deux variables centrales à l’immigration, soit être forcé à immigrer et l’incohérence des valeurs. Dans le premier modèle, les variables d'immigration prédirent simultanément l'acculturation et l'identification. Le second modèle avance que les variables d'immigration mènent à l'identification, qui mène à l'acculturation. Le troisième modèle précis plutôt que les variables d'immigration prédisent l'acculturation, qui prédit l'identification. Le premier modèle propose que l'acculturation et l'identification sont le même concept, tandis que les second et troisième stipulent qu'ils sont différents (ainsi que la direction de leur relation). Ces modèles seront comparés afin d’examiner l'existence et la direction du lien qui unit l'acculturation et l'identification. Lors de la première étude, 146 immigrants latino-américains ont répondu à un questionnaire. Les analyses des pistes causales appuient le troisième modèle stipulant que l'acculturation mène à l'identification et, donc, qu'ils sont des concepts distincts. Les résultats ont été confirmés à l’aide d’une deuxième étude où 15 immigrants latino-américains ont passé une entrevue semi-structurée. Les implications théoriques et pratiques seront discutées.
Resumo:
De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.
Resumo:
Afin d’adresser la variabilité interindividuelle observée dans la réponse pharmacocinétique à de nombreux médicaments, nous avons créé un panel de génotypage personnalisée en utilisant des méthodes de conception et d’élaboration d’essais uniques. Celles-ci ont pour but premier de capturer les variations génétiques présentent dans les gènes clés impliqués dans les processus d'absorption, de distribution, de métabolisme et d’excrétion (ADME) de nombreux agents thérapeutiques. Bien que ces gènes et voies de signalement sont impliqués dans plusieurs mécanismes pharmacocinétiques qui sont bien connues, il y a eu jusqu’à présent peu d'efforts envers l’évaluation simultanée d’un grand nombre de ces gènes moyennant un seul outil expérimental. La recherche pharmacogénomique peut être réalisée en utilisant deux approches: 1) les marqueurs fonctionnels peuvent être utilisés pour présélectionner ou stratifier les populations de patients en se basant sur des états métaboliques connus; 2) les marqueurs Tag peuvent être utilisés pour découvrir de nouvelles corrélations génotype-phénotype. Présentement, il existe un besoin pour un outil de recherche qui englobe un grand nombre de gènes ADME et variantes et dont le contenu est applicable à ces deux modèles d'étude. Dans le cadre de cette thèse, nous avons développé un panel d’essais de génotypage de 3,000 marqueurs génétiques ADME qui peuvent satisfaire ce besoin. Dans le cadre de ce projet, les gènes et marqueurs associés avec la famille ADME ont été sélectionnés en collaboration avec plusieurs groupes du milieu universitaire et de l'industrie pharmaceutique. Pendant trois phases de développement de cet essai de génotypage, le taux de conversion pour 3,000 marqueurs a été amélioré de 83% à 97,4% grâce à l'incorporation de nouvelles stratégies ayant pour but de surmonter les zones d'interférence génomiques comprenant entre autres les régions homologues et les polymorphismes sous-jacent les régions d’intérêt. La précision du panel de génotypage a été validée par l’évaluation de plus de 200 échantillons pour lesquelles les génotypes sont connus pour lesquels nous avons obtenu une concordance > 98%. De plus, une comparaison croisée entre nos données provenant de cet essai et des données obtenues par différentes plateformes technologiques déjà disponibles sur le marché a révélé une concordance globale de > 99,5%. L'efficacité de notre stratégie de conception ont été démontrées par l'utilisation réussie de cet essai dans le cadre de plusieurs projets de recherche où plus de 1,000 échantillons ont été testés. Nous avons entre autre évalué avec succès 150 échantillons hépatiques qui ont été largement caractérisés pour plusieurs phénotypes. Dans ces échantillons, nous avons pu valider 13 gènes ADME avec cis-eQTL précédemment rapportés et de découvrir et de 13 autres gènes ADME avec cis eQTLs qui n'avaient pas été observés en utilisant des méthodes standard. Enfin, à l'appui de ce travail, un outil logiciel a été développé, Opitimus Primer, pour aider pour aider au développement du test. Le logiciel a également été utilisé pour aider à l'enrichissement de cibles génomiques pour d'expériences séquençage. Le contenu ainsi que la conception, l’optimisation et la validation de notre panel le distingue largement de l’ensemble des essais commerciaux couramment disponibles sur le marché qui comprennent soit des marqueurs fonctionnels pour seulement un petit nombre de gènes, ou alors n’offre pas une couverture adéquate pour les gènes connus d’ADME. Nous pouvons ainsi conclure que l’essai que nous avons développé est et continuera certainement d’être un outil d’une grande utilité pour les futures études et essais cliniques dans le domaine de la pharmacocinétique, qui bénéficieraient de l'évaluation d'une longue liste complète de gènes d’ADME.
Resumo:
Doctorat réalisé en cotutelle entre l'Université de Montréal et l'Université Paul Sabatier-Toulouse III
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Cet essai a pour objet le rôle de la notion de fiction dans les domaines de l’art et de la science. Essentiellement, je soutiens que « fiction » dans ce contexte est « a category mistake » (concept versus genre) et je crois que cet essai peut réussir à « cuire du pain philosophique » en dévoilant une dispute verbale. Je suggère donc de clore un débat philosophique dans son intégralité. Je présente un exposé du style de fictionnalisme abordé par Catherine Z. Elgin et Nelson Goodman (que ce soit dans le contexte des arts ou des sciences, nous parvenons à la compréhension grâce à des fictions sous formes de « vérités non littérales ») et j’explore le concept de la fiction. Je soutiens que les représentations (textes descriptifs de toutes sortes, incluant les modèles) sont constituées d’éléments fictionnels et d’éléments facettés (à l’exception de la version idéale possible ou impossible, c’est-à-dire dans l’esprit de Dieu, qui n’inclurait que les facettes.) La compréhension ne peut provenir de la fiction, mais plutôt d’éléments facettés ordonnés de manière à créer une compréhension qui conduit généralement à des prédictions, des explications et des manipulations. Je définis les facettes comme ayant des caractéristiques organisées, alors que les fictions ont des caractéristiques désorganisées. La fiction dans son intégralité est donc, par définition, l’expression du néant (of nothing), ou en matière de langues idéales (mathématiques), l’expression de contradiction. Les fictions et les facettes relèvent des représentations qui sont elles-mêmes primitives. Les textes descriptifs sont donc fictionnels par degré. Les récits qui sont très fictionnels ont une certaine valeur (souvent ludique) mais contiennent toujours au moins une facette. En fin de compte, toutes les activités représentationnelles devraient être considérées irréelles, incomplètes, bien que parfois connectées à la réalité, c’est-à-dire, prises entre une description réaliste facettée et une fiction dans son intégralité.
Resumo:
Dans les milieux contaminés par les métaux, les organismes vivants sont exposés à plusieurs d’entre eux en même temps. Les modèles courants de prédiction des effets biologiques des métaux sur les organismes (p. ex., modèle du ligand biotique, BLM ; modèle de l’ion libre, FIAM), sont des modèles d’équilibre chimique qui prévoient, en présence d'un deuxième métal, une diminution de la bioaccumulation du métal d’intérêt et par la suite une atténuation de ses effets. Les biomarqueurs de toxicité, tels que les phytochélatines (PCs), ont été utilisés comme étant un moyen alternatif pour l’évaluation des effets biologiques. Les phytochélatines sont des polypeptides riches en cystéine dont la structure générale est (γ-glu-cys)n-Gly où n varie de 2 à 11. Leur synthèse semble dépendante de la concentration des ions métalliques ainsi que de la durée de l’ exposition de l’organisme, aux métaux. L'objectif de cette étude était donc de déterminer, dans les mélanges binaires de métaux, la possibilité de prédiction de la synthèse des phytochélatines par les modèles d’équilibres chimiques, tel que le BLM. Pour cela, la quantité de phytochélatines produites en réponse d’une exposition aux mélanges binaires : Cd-Ca, Cd-Cu et Cd-Pb a été mesurée tout en surveillant l’effet direct de la compétition par le biais des concentrations de métaux internalisés. En effet, après six heures d’exposition, la bioaccumulation de Cd diminue en présence du Ca et de très fortes concentrations de Pb et de Cu (de l’ordre de 5×10-6 M). Par contre, avec des concentrations modérées de ces deux métaux, le Cd augmente en présence de Cu et ne semble pas affecté par la présence de Pb. Dans le cas de la compétition Cd-Cu, une bonne corrélation a été observée entre la production de PC2, PC3 et PC4 et la quantité des métaux bioaccumulés. Pour la synthèse des phytochélatines et la bioaccumulation, les effets étaient considérés comme synergiques. Dans le cas du Cd-Ca, les quantités de PC3 et PC4 ont diminué avec le métal internalisé (effet antagoniste), mais ce qui était remarquable était la grande quantité de cystéine (GSH) et PC2 qui ont été produites à de fortes concentrations du Ca. Le Pb seul n’a pas induit les PCs. Par conséquent, il n’y avait pas de variation de la quantité de PCs avec la concentration de Pb à laquelle les algues ont été exposées. La détection et la quantification des PCs ont été faites par chromatographie à haute performance couplée d’un détecteur de fluorescence (HPLC-FL). Tandis que les concentrations métalliques intracellulaires ont été analysées par spectroscopie d’absorption atomique (AAS) ou par spectrométrie de masse à source plasma à couplage inductif (ICP-MS).
Resumo:
Cette recherche constitue une première étape dans l’élaboration d’un dictionnaire de collocations du lexique scientifique transdisciplinaire (LST), conçu pour aider des étudiants ou des chercheurs dans la rédaction de discours scientifiques ou universitaires, quel que soit leur domaine d’études. Elle a permis de concevoir deux modèles originaux d’articles de dictionnaire donnant accès aux collocations de termes nominaux et verbaux caractéristiques du LST. Les modèles d’articles sont ensuite appliqués à la description d’un échantillon de termes nominaux : analyse, caractéristique, figure, hypothèse, rapport et résultat; et verbaux : décrire et étudier. Les articles conçus dans ce mémoire offrent un accès convivial aux collocations du LST en situation de rédaction. Ils ont l’avantage de proposer une organisation cohérente de ce lexique sur les plans syntaxique et sémantique. En outre, ils permettent de présenter les termes du LST dans des contextes variés, ce qui peut contribuer au développement de la compétence lexicale.