244 resultados para Programmation stochastique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous abordons le problème de l’ensemble dominant connexe de cardinalité minimale. Nous nous penchons, en particulier, sur le développement de méthodes pour sa résolution basées sur la programmation par contraintes et la programmation en nombres entiers. Nous présentons, en l’occurrence, une heuristique et quelques méthodes exactes pouvant être utilisées comme heuristiques si on limite leur temps d’exécution. Nous décrivons notamment un algorithme basé sur l’approche de décomposition de Benders, un autre combinant cette dernière avec une stratégie d’investigation itérative, une variante de celle-ci utilisant la programmation par contraintes, et enfin une méthode utilisant uniquement la programmation par contraintes. Des résultats expérimentaux montrent que ces méthodes sont efficaces puisqu’elles améliorent les méthodes connues dans la littérature. En particulier, la méthode de décomposition de Benders avec une stratégie d’investigation itérative fournit les résultats les plus performants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'inscrit dans la pratique de l'architecture du paysage, du design urbain et de l'urbanisme. La recherche se construit autour d'un questionnement sur le rôle des professionnels de l'aménagement dans la prise en compte des usages dans les processus de projet d'aménagement de places publiques montréalaises. Une double étude de cas et une analyse comparative permettent de voir comment se fait le passage de la programmation de la place à l’appropriation de l'espace à la faveur du travail des professionnels impliqués dans les diverses phases du projet, y compris les usages et les activités non spécifiquement prévus mais rendus possibles par la nature des aménagements réalisés. Les places Gérald-Godin (arrondissement Plateau Mont-Royal) et Simon-Valois (arrondissement Mercier-Hochelaga-Maisonneuve) ont étés choisies parce qu'elles sont situées dans des quartiers à vocation résidentielle et pour leur aménagement assez récent. Ces projets sont intéressants parce qu'ils participent à la revalorisation de leur quartier respectif et à l'apport d'espace public de qualité. Or, l'internationalisation des villes et leur marchandisation les positionnent dans un contexte de compétitivité où le renouvellement urbain est un enjeu important. Conséquemment, les principaux problèmes qui ont motive ce mémoire sont celui du renouvellement urbain, de l'identité collective et des appropriations de l'espace public.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, je me suis intéressé aux effets des fluctuations du prix de pétrole sur l'activité macroéconomique selon la cause sous-jacente ces fluctuations. Les modèles économiques utilisés dans cette thèse sont principalement les modèles d'équilibre général dynamique stochastique (de l'anglais Dynamic Stochastic General Equilibrium, DSGE) et les modèles Vecteurs Autorégressifs, VAR. Plusieurs études ont examiné les effets des fluctuations du prix de pétrole sur les principaux variables macroéconomiques, mais très peu d'entre elles ont fait spécifiquement le lien entre les effets des fluctuations du prix du pétrole et la l'origine de ces fluctuations. Pourtant, il est largement admis dans les études plus récentes que les augmentations du prix du pétrole peuvent avoir des effets très différents en fonction de la cause sous-jacente de cette augmentation. Ma thèse, structurée en trois chapitres, porte une attention particulière aux sources de fluctuations du prix de pétrole et leurs impacts sur l'activité macroéconomique en général, et en particulier sur l'économie du Canada. Le premier chapitre examine comment les chocs d'offre de pétrole, de demande agrégée, et de demande de précaution de pétrole affectent l'économie du Canada, dans un Modèle d'équilibre Général Dynamique Stochastique estimé. L'estimation est réalisée par la méthode Bayésienne, en utilisant des données trimestrielles canadiennes sur la période 1983Q1 à 2010Q4. Les résultats montrent que les effets dynamiques des fluctuations du prix du pétrole sur les principaux agrégats macro-économiques canadiens varient en fonction de leurs sources. En particulier, une augmentation de 10% du prix réel du pétrole causée par des chocs positifs sur la demande globale étrangère a un effet positif significatif de l'ordre de 0,4% sur le PIB réel du Canada au moment de l'impact et l'effet reste positif sur tous les horizons. En revanche, une augmentation du prix réel du pétrole causée par des chocs négatifs sur l'offre de pétrole ou par des chocs positifs de la demande de pétrole de précaution a un effet négligeable sur le PIB réel du Canada au moment de l'impact, mais provoque une baisse légèrement significative après l'impact. En outre, parmi les chocs pétroliers identifiés, les chocs sur la demande globale étrangère ont été relativement plus important pour expliquer la fluctuation des principaux agrégats macroéconomiques du Canada au cours de la période d'estimation. Le deuxième chapitre utilise un modèle Structurel VAR en Panel pour examiner les liens entre les chocs de demande et d'offre de pétrole et les ajustements de la demande de travail et des salaires dans les industries manufacturières au Canada. Le modèle est estimé sur des données annuelles désagrégées au niveau industriel sur la période de 1975 à 2008. Les principaux résultats suggèrent qu'un choc positif de demande globale a un effet positif sur la demande de travail et les salaires, à court terme et à long terme. Un choc négatif sur l'offre de pétrole a un effet négatif relativement faible au moment de l'impact, mais l'effet devient positif après la première année. En revanche, un choc positif sur la demande précaution de pétrole a un impact négatif à tous les horizons. Les estimations industrie-par-industrie confirment les précédents résultats en panel. En outre, le papier examine comment les effets des différents chocs pétroliers sur la demande travail et les salaires varient en fonction du degré d'exposition commerciale et de l'intensité en énergie dans la production. Il ressort que les industries fortement exposées au commerce international et les industries fortement intensives en énergie sont plus vulnérables aux fluctuations du prix du pétrole causées par des chocs d'offre de pétrole ou des chocs de demande globale. Le dernier chapitre examine les implications en terme de bien-être social de l'introduction des inventaires en pétrole sur le marché mondial à l'aide d'un modèle DSGE de trois pays dont deux pays importateurs de pétrole et un pays exportateur de pétrole. Les gains de bien-être sont mesurés par la variation compensatoire de la consommation sous deux règles de politique monétaire. Les principaux résultats montrent que l'introduction des inventaires en pétrole a des effets négatifs sur le bien-être des consommateurs dans chacun des deux pays importateurs de pétrole, alors qu'il a des effets positifs sur le bien-être des consommateurs dans le pays exportateur de pétrole, quelle que soit la règle de politique monétaire. Par ailleurs, l'inclusion de la dépréciation du taux de change dans les règles de politique monétaire permet de réduire les coûts sociaux pour les pays importateurs de pétrole. Enfin, l'ampleur des effets de bien-être dépend du niveau d'inventaire en pétrole à l'état stationnaire et est principalement expliquée par les chocs sur les inventaires en pétrole.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche dresse le portrait d’un nouveau genre sur le Web, la websérie. Il s’agit d’analyser la websérie québécoise afin d’en comprendre les influences, particulièrement les influences télévisuelles. Dans le premier chapitre, les théories de l’intermédialité, de la remédiation et de la convergence sont abordées afin de bien comprendre les différents types d’échanges entre les médias d’aujourd’hui. Dans le second chapitre, une vue d’ensemble, en ce qui a trait à l’histoire de la websérie au Québec, est donnée. Ensuite, quatre caractéristiques principales de la télévision sont analysées : le contexte de réception, la programmation, l’esthétique et la sérialité. Il est ensuite démontré que ces caractéristiques sont également présentes dans la websérie et il est expliqué de quelle manière elles le sont. Finalement, dans le dernier chapitre, des analyses de webséries sont faites afin d’exemplifier les différents liens entre les émissions de télévision et la websérie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthylation de l'ADN est l'une des modifications épigénétiques au niveau des îlots CpG. Cette modification épigénétique catalysée par les ADN méthyltransférases (DNMTs) consiste en la méthylation du carbone 5' d’une cytosine ce qui aboutit à la formation de 5-méthylcytosine. La méthylation de l'ADN est clairement impliquée dans l'inactivation des gènes et dans l'empreinte génétique. Elle est modulée par la nutrition, en particulier par les donneurs de méthyle et par une restriction protéique. Ces modifications épigénétiques persistent plus tard dans la vie et conduisent au développement de nombreuses pathologies telles que le syndrome métabolique et le diabète de type 2. En fait, de nombreux gènes clés subissent une modification de leur état de méthylation en présence des composants du syndrome métabolique. Cela montre que la méthylation de l'ADN est un processus important dans l'étiologie du syndrome métabolique. Le premier travail de ce doctorat a porté sur la rédaction d’un article de revue qui a examiné le cadre central du syndrome métabolique et analyser le rôle des modifications épigénétiques susceptibles d'influer sur l'apparition du stress oxydant et des complications cardiométaboliques. D’autre part, les cellules intestinales Caco-2/15, qui ont la capacité de se différencier et d’acquérir les caractéristiques physiologiques de l'intestin grêle, ont été utilisées et traitées avec du Fer-Ascorbate pour induire un stress oxydant. Le Fer-Ascorbate a induit une augmentation significative de l’inflammation et de la peroxydation des lipides (malondialdehyde) ainsi que des altérations de de la défense antioxydante (SOD2 et GPx) accompagnées de modifications épigénétiques. De plus, la pré-incubation des cellules avec de la 5-aza-2'-désoxycytidine, un agent de déméthylation et/ou l’antioxydant Trolox a normalisé la défense antioxydante, réduit la peroxydation des lipides et prévenu l'inflammation. Ce premier travail a démontré que les modifications du redox et l’inflammation induites par le Fer-Ascorbate peuvent impliquer des changements épigénétiques, plus particulièrement des changements dans la méthylation de l’ADN. Pour mieux définir l’impact du stress oxydant au niveau nutritionnel, des cochons d’Inde âgés de trois jours ont été séparés en trois groupes : 1) Témoins: alimentation régulière; 2) Nutrition parentérale (NP) 3) H2O2 : Témoins + 350 uM H2O2. Après quatre jours, pour un groupe, les perfusions ont été stoppées et les animaux sacrifiés pour la collecte des foies. Pour l’autre groupe d’animaux, les perfusions ont été arrêtées et les animaux ont eu un accès libre à une alimentation régulière jusqu'à la fin de l’étude, huit semaines plus tard où ils ont été sacrifiés pour la collecte des foies. Ceci a démontré qu’à une semaine de vie, l'activité DNMT et les niveaux de 5'-méthyl-2'-désoxycytidine étaient inférieurs pour les groupes NP et H2O2 par rapport aux témoins. A neuf semaines de vie, l’activité DNMT est restée basse pour le groupe NP alors que les niveaux de 5'-méthyl-2'-désoxycytidine étaient plus faibles pour les groupes NP et H2O2 par rapport aux témoins. Ce travail a démontré que l'administration de NP ou de H2O2, tôt dans la vie, induit une hypométhylation de l'ADN persistante en raison d'une inhibition de l'activité DNMT. Finalement, des souris ayant reçu une diète riche en gras et en sucre (HFHS) ont été utilisées comme modèle in vivo de syndrome métabolique. Les souris ont été nourris soit avec un régime standard chow (témoins), soit avec une diète riche en gras et en sucre (HFHS) ou avec une diète HFHS en combinaison avec du GFT505 (30 mg/kg), un double agoniste de PPARα et de PPARδ, pendant 12 semaines. La diète HFHS était efficace à induire un syndrome métabolique étant donnée l’augmentation du poids corporel, du poids hépatique, des adiposités viscérales et sous-cutanées, de l’insensibilité à l’insuline, des lipides plasmatiques et hépatiques, du stress oxydant et de l’inflammation au niveau du foie. Ces perturbations étaient accompagnées d’une déficience dans l’expression des gènes hépatiques PPARα et PPARγ concomitant avec une hyperméthylation de leurs promoteurs respectifs. L’ajout de GFT505 à la diète HFHS a empêché la plupart des effets cardiométaboliques induits par la diète HFHS via la modulation négative de l’hyperméthylation des promoteurs, résultant en l’augmentation de l’expression des gènes hépatiques PPARα et PPARγ. En conclusion, GFT505 exerce des effets métaboliques positifs en améliorant le syndrome métabolique induit par l'alimentation HFHS via des modifications épigénétiques des gènes PPARs. Ensemble, les travaux de cette thèse ont démontré que le stress oxydant provenant de la nutrition induit d’importants changements épigénétiques pouvant conduire au développement du syndrome métabolique. La nutrition apparait donc comme un facteur crucial dans la prévention de la reprogrammation fœtale et du développement du syndrome métabolique. Puisque les mécanismes suggèrent que le stress oxydant agit principalement sur les métabolites du cycle de la méthionine pour altérer l’épigénétique, une supplémentation en ces molécules ainsi qu’en antioxydants permettrait de restaurer l’équilibre redox et épigénétique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prise de décision est un mécanisme qui fait intervenir les structures neuronales supérieures afin d’effectuer un lien entre la perception du signal et l’action. Plusieurs travaux qui cherchent à comprendre les mécanismes de la prise de décision sont menés à divers ni- veaux allant de l’analyse comportementale cognitive jusqu'à la modélisation computationnelle. Le but de ce projet a été d’évaluer d’un instant à l’autre comment la variabilité du signal observé («bruit»), influence la capacité des sujets humains à détecter la direction du mouvement dans un stimulus visuel. Dans ces travaux, nous avons éliminé l’une des sources potentielles de variabilité, la variabilité d’une image à l’autre, dans le nombre de points qui portaient les trois signaux de mouvements cohérents (gauche, droite, et aléatoire) dans les stimuli de Kinématogramme de points aléatoires (KPA), c’est-à-dire la variabilité d’origine périphérique. Les stimuli KPA de type « V6 » étaient des stimuli KPA standard avec une variabilité instantanée du signal, et par contre les stimuli KPA de type « V8 », étaient modifiés pour éliminer la variabilité stochastique due à la variabilité du nombre de pixels d’un instant à l’autre qui portent le signal cohérent. Si la performance des sujets, qui correspond à leur temps de réaction et au nombre de bonnes réponses, diffère en réponse aux stimuli dont le nombre de points en mouvement cohérent varie (V6) ou ne varie pas (V8), ceci serait une preuve que la variabilité d’origine périphérique modulerait le processus décisionnel. Par contre, si la performance des sujets ne diffère pas entre ces deux types de stimuli, ceci serait une preuve que la source majeure de variabilité de performance est d’origine centrale. Dans nos résultats nous avons constaté que le temps de réaction et le nombre de bonnes réponses sont modulés par la preuve nette du mouvement cohérent. De plus on a pu établir qu’en éliminant la variabilité d’origine périphérique définit ci-dessus, on n’observe pas réellement de modification dans les enregistrements. Ce qui nous à amené à penser qu’il n y a pas de distinction claire entre la distribution des erreurs et les bonnes réponses effectuées pour chacun des essais entre les deux stimuli que nous avons utilisé : V6 et V8. C’est donc après avoir mesuré la « quantité d’énergie » que nous avons proposé que la variabilité observée dans les résultats serait probablement d’origine centrale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des évidences expérimentales récentes indiquent que les ARN changent de structures au fil du temps, parfois très rapidement, et que ces changements sont nécessaires à leurs activités biochimiques. La structure de ces ARN est donc dynamique. Ces mêmes évidences notent également que les structures clés impliquées sont prédites par le logiciel de prédiction de structure secondaire MC-Fold. En comparant les prédictions de structures du logiciel MC-Fold, nous avons constaté un lien clair entre les structures presque optimales (en termes de stabilité prédites par ce logiciel) et les variations d’activités biochimiques conséquentes à des changements ponctuels dans la séquence. Nous avons comparé les séquences d’ARN du point de vue de leurs structures dynamiques afin d’investiguer la similarité de leurs fonctions biologiques. Ceci a nécessité une accélération notable du logiciel MC-Fold. L’approche algorithmique est décrite au chapitre 1. Au chapitre 2 nous classons les impacts de légères variations de séquences des microARN sur la fonction naturelle de ceux-ci. Au chapitre 3 nous identifions des fenêtres dans de longs ARN dont les structures dynamiques occupent possiblement des rôles dans les désordres du spectre autistique et dans la polarisation des œufs de certains batraciens (Xenopus spp.).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse soutenue le 27 février 2015 devant un jury composé par Marie-Hélène Benoit-Otis (présidente, Université de Montréal), François de Médicis (Université de Montréal), Christopher Moore (Université d'Ottawa) et Michel Duchesneau (Université de Montréal).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche des facteurs de longévité gagne en intérêt dans le contexte actuel du vieillissement de la population. De la littérature portant sur la longévité et la mortalité aux grands âges, un constat émerge : bien que les déterminants associés à la survie humaine soient multiples, l'environnement familial aurait un rôle déterminant sur la mortalité et sur l'atteinte des âges avancés. Dès lors, l'objectif de cette thèse est d'évaluer les déterminants de la survie exceptionnelle et d'examiner le rôle des aspects familiaux, en début de vie et à l'âge adulte, dans les différentiels de durée de vie. Plus spécifiquement, elle vise à : (1) examiner la similarité des âges au décès entre frères, soeurs et conjoints afin d'apprécier l'ampleur de la composante familiale de la longévité; (2) explorer, d'un point de vue intrafamilial, les conséquences à long terme sur la survie des variables non partagées issues de la petite enfance tels l'âge maternel à la reproduction, le rang de naissance et la saison de naissance; et (3) s'interroger sur le rôle protecteur ou délétère de l’environnement et du milieu familial d'origine dans l’enfance sur l'atteinte des grands âges et dans quelle mesure le statut socioéconomique parvient à médiatiser la relation. Cette analyse s'appuie sur le jumelage des recensements canadiens et des actes de décès de l’état civil québécois et emploie des données québécoises du 20e siècle issues de deux échantillons distincts : un échantillon aléatoire représentatif de la population provenant du recensement canadien de 1901 ainsi qu’un échantillon de frères et soeurs de centenaires québécois appartenant à la même cohorte. Les résultats, présentés sous forme d'articles scientifiques, ont montré, en outre, que les frères et soeurs de centenaires vivent plus longtemps que les individus appartenant aux mêmes cohortes de naissance, reflétant la contribution d'une robustesse commune, mais également celle de l'environnement partagé durant la petite enfance. Ces analyses ont également témoigné d'un avantage de survie des conjoints des centenaires, soulignant l'importance d'un même environnement à l'âge adulte (1er article). De plus, nos travaux ont mis de l'avant la contribution aux inégalités de longévité des variables biodémographiques issues de l'environnement non partagé telles que l'âge maternel à la reproduction, le rang de naissance et la saison de naissance, qui agissent et interagissent entre elles pour créer des vulnérabilités et influer sur l'atteinte des âges exceptionnels (2e article). Enfin, une approche longitudinale a permis de souligner la contribution du milieu social d'origine sur la longévité, alors que les individus issus d’un milieu socioéconomique défavorisé pour l'époque (milieu urbain, père ouvrier) vivent moins longtemps que ceux ayant vécu dans un environnement socioéconomique favorable (milieu rural, fermier), résultat d'une potentielle accumulation des avantages liée à la reproduction du statut social ou d'une programmation précoce des trajectoires de santé. L’influence est toutefois moindre pour les femmes et pour les frères de centenaires et s'exprime, dans ce cas, en partie par l'effet de la profession à l'âge adulte (3e article).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude est de réaliser une analyse comparative de la pauvreté et de la structure de consommation des ménages des capitales des Etats membres de l’Union Economique et Monétaire Ouest Africaine (UEMOA) à partir des données des enquêtes dépenses des ménages (EDM) réalisées en 2008 dans ces agglomérations. En s’appuyant sur l’approche monétaire de la pauvreté mise en oeuvre par la méthode du coût des besoins essentiels, il ressort que plus d’un ménage sur 10, soit 10,5% de l’ensemble de la population étudiée vit sous le seuil de pauvreté estimé à 277450 F CFA de dépenses annuelles par unité de consommation. Le test de dominance stochastique de 1er ordre confirme que l’ampleur du phénomène est en moyenne plus importante dans les villes sahéliennes (Bamako, Niamey, Ouagadougou) que dans les grandes villes côtières (Abidjan, Dakar, Lomé). Par ailleurs, l’analyse économétrique révèle que la taille du ménage et le capital humain du chef de ménage sont des déterminants importants du niveau de vie monétaire des ménages. En effet, tandis que le risque de pauvreté est plus élevé chez les ménages de grande taille, le niveau de vie d’un ménage est d’autant plus élevé que le niveau d’instruction du chef est important. En outre, on observe que dans les agglomérations où le taux de pauvreté est le plus élevé, les ménages accordent un poids plus élevé aux dépenses alimentaires. Enfin, l’estimation des élasticités dépenses totales de la demande à l’aide d’une régression linéaire suggère qu’en moyenne, les besoins de consommation insatisfaits par les ménages portent sur les services (les transports, la communication, la santé, l’éducation et les loisirs).