993 resultados para Modèle numérique non linéaire
Resumo:
Ce mémoire présente l’évaluation du remodelage osseux autour des composantes acétabulaires non cimentées press-fit d’une arthroplastie de resurfaçage (RH) et d’une prothèse totale de hanche (PTH) après un minimum de 21 mois d’implantation. Nous avons mesuré par l’absorptiométrie à rayons X en double énergie (DEXA) la densité minérale osseuse (DMO) supra acétabulaire chez 60 patients (44 RH, 16 PTH). Aucune différence significative de la moyenne des DMO au niveau de la zone globale et de la zone centrale de l’acétabulum n’a été trouvée entre la hanche opérée et la hanche controlatérale, dans les deux groupes de traitement. Cependant, la DMO des zones corticospongieuses médiale et latérale est plus élevée du côté opéré par rapport au côté non opéré avec la cupule en chrome cobalt de la RH; (p=0,014 et 0,031 respectivement). Alors que pour la PTH avec une cupule en titane, la différence de la DMO au niveau de ces zones n’est pas significative; (p=0,130 et 0,733). Ces données semblent démontrer qu’avec des cupules plus rigides, il y a transfert des contraintes de charges vers la périphérie corticale. C’est la première étude à évaluer le remodelage osseux péri acétabulaire avec un RH. Cela montre que la DMO est relativement préservée et que le transfert des contraintes vers la périphérie peut être favorable au maintien de la stabilité de l’implant primaire et aux éventuelles révisions de la cupule press-fit du RH.
Resumo:
La guérison des plaies cutanées appendiculaires chez le cheval, à la différence de celle des plaies corporelles, se complique régulièrement. Un retard de cicatrisation s’y observe et un tissu de granulation exubérant tend à s’y développer, le tout menant à une cicatrice pathologique hypertrophiée. La pathogénie exacte du tissu de granulation exubérant chez le cheval demeure inconnue à ce jour. Une hypoxie tissulaire pourrait favoriser son développement tout comme elle semble contribuer au développement de cicatrices cutanées pathologiques similaires observées chez l’Homme. L’objectif de cette étude était d’évaluer la perfusion vasculaire et la disponibilité locale en oxygène de plaies cutanées appendiculaires et corporelles en cours de cicatrisation normale et pathologique chez le cheval, à l’aide de la thermographie infrarouge et de la spectroscopie par réflectance dans le proche infrarouge. Six juments âgées de 3 à 4 ans ont été utilisées. Trois plaies cutanées ont été créées à l’aspect dorso-latéral du canon des membres thoraciques (plaies appendiculaires), et sur la paroi costale de l’un des hémithorax (plaies corporelles). Chez chaque jument, un canon a été aléatoirement bandé dans le but d’induire la formation de tissu de granulation exubérant dans les plaies s’y trouvant, tel que rapporté. La perfusion vasculaire et la disponibilité locale en oxygène ont été évaluées séquentiellement par thermographie infrarouge et spectroscopie par réflectance dans le proche infrarouge pour chaque plaie de chaque site (thorax; membre bandé; membre non bandé) au cours du processus de cicatrisation cutanée. Un modèle linéaire à doubles mesures répétées associé à une correction séquentielle de Bonferroni a révélé des différences significatives de perfusion vasculaire et de disponibilité locale en oxygène entre les plaies appendiculaires et corporelles. Ainsi la perfusion vasculaire et la disponibilité locale en oxygène étaient significativement plus élevées dans les plaies corporelles (P<0.05) et la perfusion vasculaire était significativement plus élevée dans les plaies appendiculaires non bandées que dans celles bandées (P<0.05). Nous avons récemment rapporté une plus grande occlusion de la micro-vascularisation au niveau des plaies appendiculaires chez le cheval. Nous rapportons maintenant que la perfusion vasculaire et la disponibilité locale en oxygène sont significativement inférieures dans les plaies appendiculaires, en particulier lorsqu’un tissu de granulation exubérant s’y développe. Compilés, ces résultats sous-tendent l’hypothèse que les plaies appendiculaires souffrent d’une altération de la perfusion vasculaire à l’origine possible d’une hypoxie tissulaire qui pourrait favoriser une cicatrisation cutanée anormale, telle la formation d’un tissu de granulation exubérant.
Resumo:
L’hépatite autoimmune (HAI) est une maladie grave affectant le foie et présentant un haut taux de mortalité lorsque non traitée. Les traitements disponibles sont efficaces, mais de graves effets secondaires leur sont associés. Ces effets secondaires sont généralement le résultat d'une forte immunosuppression et d’autres sont spécifiques à chaque médicament. Aucune immunothérapie spécifique n’est présentement disponible pour le traitement de l’HAI. Récemment, un modèle murin d’HAI a été développé dans notre laboratoire par xénoimmunisation des souris C57BL/6 avec les antigènes humains de l'HAI de type 2. Ce modèle présente la plupart des caractéristiques biochimiques et cliniques retrouvées chez les patients atteints d'HAI de type 2. Dans cette étude, nous avons évaluée l’efficacité de deux types de traitement pour l’HAI de type 2 à l’aide de notre modèle murin. Dans un premier temps, l’anticorps anti-CD3ε a été étudié en prophylaxie et en traitement. Nous avons montré qu’une posologie de 5µg d’anti-CD3 i.v. par jour pendant 5 jours consécutifs induit une rémission chez les souris avec HAI de type 2 établie (traitement). Cette rémission est caractérisée par une normalisation des niveaux d’alanine aminotransférase et une diminution significative de l’inflammation hépatique. Cette rémission semble être associée à une déplétion partielle et transitoire des lymphocytes T CD3+ dans la périphérie et une augmentation des lymphocytes T régulateurs CD4+, CD25+ et Foxp3+ dans le foie. La même posologie lorsqu’elle est appliquée en prophylaxie n’a pas réussi à prévenir l’apparition de l’HAI de type 2. La deuxième voie de traitement consiste en l’administration par voie intranasale d’un forte dose de formiminotransférase cyclodésaminase murin (mFTCD), un autoantigène reconnu dans l’HAI de type 2. Une administration en prophylaxie par voie intranasale de 100µg de mFTCD par jour durant 3 jours consécutifs arrive à prévenir l’HAI de type 2 en diminuant l’inflammation hépatique au bout de deux semaines post-traitement.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.
Resumo:
La douleur articulaire associée à l’arthrose est un problème clinique majeur, spécialement chez les personnes âgées. L’intensité de la douleur est souvent amplifiée lors de mouvement de l’articulation et principalement lors du soutien de la charge corporelle sur le membre lésé. Malheureusement, les traitements pharmacologiques proposés sont trop souvent associés à des effets secondaires néfastes et à une inefficacité pour le soulagement de la douleur à long terme. Divers modèles murins sont utilisés en laboratoire de recherche pour des études précliniques de molécules aux propriétés analgésiques. Une évaluation comparative de la réponse comportementale douloureuse des animaux d’un modèle d’instabilité articulaire induit par le sectionnement du ligament croisé antérieur accompagné d’une méniscectomie partielle (le modèle ACLT+pMMx) et d’un modèle de dégénérescence articulaire induite par le monoiodoacetate (le modèle MIA) a permis de sélectionner un modèle approprié pour la continuité du projet. Les deux modèles ont démontré des lésions tissulaires, mais le modèle MIA a démontré une réponse douloureuse plus prononcée que le modèle ACLT+pMMx. Par l’analyse de la démarche, le modèle MIA a démontré une boiterie claire dans le patron de la démarche des animaux qui est associée à une lésion unilatérale. Le modèle MIA a donc été choisi pour la suite du projet. La problématique principale dans la recherche sur la douleur associée à l’arthrose est une compréhension incomplète des mécanismes de douleur responsables de l’induction et du maintien de l’état de douleur. Il devient donc nécessaire d’améliorer nos connaissances de ces mécanismes en effectuant une caractérisation plus approfondie des modèles animaux employés pour l’évaluation de stratégies pharmacologiques analgésiantes. Afin de bien comprendre le modèle MIA, une caractérisation des événements moléculaires centraux lors de la progression du processus dégénératif des structures articulaires de ce modèle s’est effectuée aux jours 3, 7, 14, 21 et 28 post injection. Des mécanismes hétérogènes qui modulent l’information nociceptive en fonction de la progression temporelle de la pathologie ont été observés. Les changements du contenu i spinal des neuropeptides sélectionnés (substance P, CGRP, dynorphine A et Big dynorphine) ont débuté sept jours suivant l’injection de MIA. L’observation histologique a démontré que les dommages structuraux les plus importants surviennent entre les jours 14 et 21. C’est entre les jours 7 et 21 que les lésions démontrent le plus de similarités à la pathologie humaine. Cela suggère que lors d’une évaluation préclinique d’un traitement pharmacologique pour pallier la douleur articulaire utilisant le modèle MIA, l’étude doit tenir compte de ces événements afin de maximiser l’évaluation de son efficacité. Puisque les traitements pharmacologiques conventionnels proposés pour le soulagement de la douleur ne font pas l’unanimité en terme d’efficacité, d’effets non désirés et de coûts monétaires parfois onéreux, les molécules de dérivés de plante deviennent une alternative intéressante. L’eugénol, le principal constituant de l’huile de clou de girofle, a été administré oralement pour une période de 28 jours chez des rats ayant reçu l’injection intra-articulaire de MIA afin d’évaluer son efficacité pour le traitement de la douleur articulaire. L’eugénol à une dose de 40 mg/kg s’est révélé efficace pour l’amélioration du patron de la démarche des animaux ainsi que pour la diminution de l’allodynie mécanique secondaire. De plus, les concentrations spinales de neuropeptides pronocicepteurs ont diminué chez les animaux traités. Par une évaluation histopathologique, l’eugénol n’a démontré aucune évidence d’effets toxiques suite à une administration per os quotidienne pour une période prolongée. Ces résultats suggèrent le potentiel thérapeutique complémentaire de la molécule d’eugénol pour le traitement de la douleur articulaire.
Resumo:
Tous mes travaux ont été réalisés à l'aide du logiciel stata 11.
Resumo:
Réalisé en cotutelle avec le Dr James G Martin de l'Université McGill (Meakins-Christie laboratories)
Resumo:
Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.
Resumo:
Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.
Resumo:
Ce mémoire propose une analyse sémio-narrative d’un corpus de dix-neuf contes merveilleux recueillis auprès des conteurs canadiens-français et canadiens-hurons par l’anthropologue Charles-Marius Barbeau, au début du XXe siècle. Après avoir passé en revue les principales théories dans l’approche sémiotique du conte à partir de Vladimir Propp jusqu’à nos jours, nous avons procédé à une étude narrative du corpus selon la méthode du grand folkloriste russe : cela nous a permis d’en montrer la valeur exceptionnelle mais aussi les limites. Nous avons constaté ainsi que le travail sur un corpus inédit peut mener à l’identification de nouveaux éléments dans la structure du conte merveilleux. En poursuivant nos recherches sur les dix-neuf contes recueillis par Barbeau, nous sommes passée du schéma linéaire, syntagmatique de Propp aux modèles logiques de ses continuateurs, particulièrement celui élaboré par Guy Laflèche. Nos analyses ont mis en évidence non seulement le fait que la structure en miroir est un modèle valide auquel une partie des contes merveilleux se plie parfaitement (d’emblée l’exclusivité du schéma de Propp est mise en question, sinon infirmée), mais aussi que tout conte merveilleux est exceptionnellement organisé, structuré (ce qui confirme la théorie de Claude Bremond conformément à laquelle le récit narratif est une alternance de dégradations et d’améliorations). Enfin, la dernière partie du mémoire est une analyse sémio-discursive de notre corpus qui, au lieu d’être une simple accumulation de listes de mots, d’expressions et de figures, tente d’aborder la structure idéologique, grâce à une étude en parallèle d’un conte du corpus et de deux versions littéraires.
Resumo:
Cette thèse est composée de trois articles en économie des ressources naturelles non-renouvelables. Nous considérons tour à tour les questions suivantes : le prix in-situ des ressources naturelles non-renouvelables ; le taux d’extraction optimal et le prix des res- sources non-renouvelables et durables. Dans le premier article, nous estimons le prix in-situ des ressources naturelles non-renouvelables en utilisant les données sur le coût moyen d’extraction pour obtenir une approximation du coût marginal. En utilisant la Méthode des Moments Généralisés, une dynamique du prix de marché derivée des conditions d’optimalité du modèle d’Hotelling est estimée avec des données de panel de 14 ressources naturelles non-renouvelables. Nous trouvons des résultats qui tendent à soutenir le modèle. Premièrement, le modèle d’Hotelling exhibe un bon pouvoir explicatif du prix de marché observé. Deuxièmement, bien que le prix estimé présente un changement structurel dans le temps, ceci semble n’avoir aucun impact significatif sur le pouvoir explicatif du modèle. Troisièmement, on ne peut pas rejeter l’hypothèse que le coût marginal d’extraction puisse être approximé par les données sur le coût moyen. Quatrièmement, le prix in-situ estimé en prenant en compte les changements structurels décroît ou exhibe une forme en U inversé dans le temps et semble être corrélé positivement avec le prix de marché. Cinquièmement, pour neuf des quatorze ressources, la différence entre le prix in-situ estimé avec changements structurels et celui estimé en négligeant les changements structurels est un processus de moyenne nulle. Dans le deuxième article, nous testons l’existence d’un équilibre dans lequel le taux d’extraction optimal des ressources non-renouvelables est linéaire par rapport au stock de ressource en terre. Tout d’abord, nous considérons un modèle d’Hotelling avec une fonction de demande variant dans le temps caractérisée par une élasticité prix constante et une fonction de coût d’extraction variant dans le temps caractérisée par des élasticités constantes par rapport au taux d’extraction et au stock de ressource. Ensuite, nous mon- trons qu’il existe un équilibre dans lequel le taux d’extraction optimal est proportionnel au stock de ressource si et seulement si le taux d’actualisation et les paramètres des fonctions de demande et de coût d’extraction satisfont une relation bien précise. Enfin, nous utilisons les données de panel de quatorze ressources non-renouvelables pour vérifier empiriquement cette relation. Dans le cas où les paramètres du modèle sont supposés invariants dans le temps, nous trouvons qu’on ne peut rejeter la relation que pour six des quatorze ressources. Cependant, ce résultat change lorsque nous prenons en compte le changement structurel dans le temps des prix des ressources. En fait, dans ce cas nous trouvons que la relation est rejetée pour toutes les quatorze ressources. Dans le troisième article, nous étudions l’évolution du prix d’une ressource naturelle non-renouvelable dans le cas où cette ressource est durable, c’est-à-dire qu’une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non-renouvelable détenu en terre, qui ne procure aucun service productif ; un stock de ressource détenu hors terre, qui procure un flux de services productifs ; un stock d’un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d’une obligation dont le rendement est donné. Les productivités du secteur de production du bien composite et du secteur de l’extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l’on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d’Hotelling élémentaire et qu’aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.