30 resultados para Monotone Inclusions
em Université de Montréal, Canada
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
We identify conditions under which preferences over sets of consumption opportunities can be reduced to preferences over bundles of \"commodities\". We distinguish ordinal bundles, whose coordinates are defined up to monotone transformations, from cardinal bundles, whose coordinates are defined up to positive linear transformations only.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
We examine the relationship between the risk premium on the S&P 500 index return and its conditional variance. We use the SMEGARCH - Semiparametric-Mean EGARCH - model in which the conditional variance process is EGARCH while the conditional mean is an arbitrary function of the conditional variance. For monthly S&P 500 excess returns, the relationship between the two moments that we uncover is nonlinear and nonmonotonic. Moreover, we find considerable persistence in the conditional variance as well as a leverage effect, as documented by others. Moreover, the shape of these relationships seems to be relatively stable over time.
Resumo:
We analyze infinite-horizon choice functions within the setting of a simple linear technology. Time consistency and efficiency are characterized by stationary consumption and inheritance functions, as well as a transversality condition. In addition, we consider the equity axioms Suppes-Sen, Pigou-Dalton, and resource monotonicity. We show that Suppes-Sen and Pigou-Dalton imply that the consumption and inheritance functions are monotone with respect to time—thus justifying sustainability—while resource monotonicity implies that the consumption and inheritance functions are monotone with respect to the resource. Examples illustrate the characterization results.
Resumo:
Nous présentons dans cette thèse des théorèmes d’existence pour des systèmes d’équations différentielles non-linéaires d’ordre trois, pour des systèmes d’équa- tions et d’inclusions aux échelles de temps non-linéaires d’ordre un et pour des systèmes d’équations aux échelles de temps non-linéaires d’ordre deux sous cer- taines conditions aux limites. Dans le chapitre trois, nous introduirons une notion de tube-solution pour obtenir des théorèmes d’existence pour des systèmes d’équations différentielles du troisième ordre. Cette nouvelle notion généralise aux systèmes les notions de sous- et sur-solutions pour le problème aux limites de l’équation différentielle du troisième ordre étudiée dans [34]. Dans la dernière section de ce chapitre, nous traitons les systèmes d’ordre trois lorsque f est soumise à une condition de crois- sance de type Wintner-Nagumo. Pour admettre l’existence de solutions d’un tel système, nous aurons recours à la théorie des inclusions différentielles. Ce résultat d’existence généralise de diverses façons un théorème de Grossinho et Minhós [34]. Le chapitre suivant porte sur l’existence de solutions pour deux types de sys- tèmes d’équations aux échelles de temps du premier ordre. Les résultats d’exis- tence pour ces deux problèmes ont été obtenus grâce à des notions de tube-solution adaptées à ces systèmes. Le premier théorème généralise entre autre aux systèmes et à une échelle de temps quelconque, un résultat obtenu pour des équations aux différences finies par Mawhin et Bereanu [9]. Ce résultat permet également d’obte- nir l’existence de solutions pour de nouveaux systèmes dont on ne pouvait obtenir l’existence en utilisant le résultat de Dai et Tisdell [17]. Le deuxième théorème de ce chapitre généralise quant à lui, sous certaines conditions, des résultats de [60]. Le chapitre cinq aborde un nouveau théorème d’existence pour un système d’in- clusions aux échelles de temps du premier ordre. Selon nos recherches, aucun résultat avant celui-ci ne traitait de l’existence de solutions pour des systèmes d’inclusions de ce type. Ainsi, ce chapitre ouvre de nouvelles possibilités dans le domaine des inclusions aux échelles de temps. Notre résultat a été obtenu encore une fois à l’aide d’une hypothèse de tube-solution adaptée au problème. Au chapitre six, nous traitons l’existence de solutions pour des systèmes d’équations aux échelles de temps d’ordre deux. Le premier théorème d’existence que nous obtenons généralise les résultats de [36] étant donné que l’hypothèse que ces auteurs utilisent pour faire la majoration a priori est un cas particulier de notre hypothèse de tube-solution pour ce type de systèmes. Notons également que notre définition de tube-solution généralise aux systèmes les notions de sous- et sur-solutions introduites pour les équations d’ordre deux par [4] et [55]. Ainsi, nous généralisons également des résultats obtenus pour des équations aux échelles de temps d’ordre deux. Finalement, nous proposons un nouveau résultat d’exis- tence pour un système dont le membre droit des équations dépend de la ∆-dérivée de la fonction.
Resumo:
Les trois essais dans cette thèse étudient les implications des frictions financières, telles que les contraintes de collatérale ou de crédit, pour les décisions économiques des agents et leur impact sur les variables macro-économiques agrégées. Dans le premier chapitre "Financial Contracts and the Political Economy of Investor Protection" nous proposons une théorie du niveau de protection des investisseurs. Une faible protection des investisseurs implique un coût de financement externe plus élevé à cause des problèmes d'agence plus aigus entre les investisseurs et les entrepreneurs. À l'équilibre, ceci exclut les agents plus dépendants sur le financement externe de l'entrepreneuriat, ce qui augmente les profits des entrepreneurs qui restent actifs. Quand le niveau de la protection des investisseurs est choisi par un vote majoritaire, la théorie génère (i) une protection des investisseurs plus faible dans les économies avec plus grande inégalité dans les besoins de financement externe parmi les entrepreneurs, (ii) une dynamique non-monotone de l'output, (iii) améliorations (détériorations) de la protection des investisseurs suite à des ralentissements (accélérations) de l'output agrégé. L'évidence empirique donne un support à ces prédictions de la théorie. Dans le deuxième chapitre "Financial Frictions, Internal Capital Markets, and the Organization of Production", nous examinons comment la présence des frictions financières peut mener à la formation des conglomérats et des "business groups" diversifiées. Particulièrement, nous construisons un modèle d'équilibre général d'entrepreneuriat dans lequel les conglomérats émergent de façon endogène et substituent partiellement le marché du crédit imparfait. Nous montrons que ce modèle est capable d'expliquer quantitativement plusieurs faits stylisés concernant l'organisation de la production, les différences de productivité entre les firmes et les différences en présence des conglomérats entre les pays. Le troisième chapitre "Size and Productivity of Single-segment and Diversified Firms: Evidence from Canadian Manufacturing" étudie empiriquement la relation entre la taille, la productivité, et la structure organisationnelle d'une firme. Utilisant les micro-données sur les établissements manufacturiers canadiens, nous documentons plusieurs faits stylisés concernant la taille et la productivité totale des facteurs des établissements dans les conglomérats et dans les firmes non-diversifiées. Nous trouvons que les établissements dans les conglomérats sont en moyenne plus larges que leurs contreparties dans les firmes non-diversifiées, les petits établissements dans les conglomérats sont moins productifs que les établissements de taille similaire dans les firmes non-diversifiées, mais les larges établissements dans les conglomérats sont plus productifs que ceux de taille similaire dans les firmes non-diversifiées. Cette évidence est consistante avec réallocation interne efficiente des ressources au sein des conglomérats.
Resumo:
Soit (M,ω) un variété symplectique fermée et connexe.On considère des sous-variétés lagrangiennes α : L → (M,ω). Si α est monotone, c.- à-d. s’il existe η > 0 tel que ημ = ω, Paul Biran et Octav Conea ont défini une version relative de l’homologie quantique. Dans ce contexte ils ont déformé l’opérateur de bord du complexe de Morse ainsi que le produit d’intersection à l’aide de disques pseudo-holomorphes. On note (QH(L), ∗), l’homologie quantique de L munie du produit quantique. Le principal objectif de cette dissertation est de généraliser leur construction à un classe plus large d’espaces. Plus précisément on considère soit des sous-variétés presque monotone, c.-à-d. α est C1-proche d’un plongement lagrangian monotone ; soit les fibres toriques de variétés toriques Fano. Dans ces cas non nécessairement monotones, QH(L) va dépendre de certains choix, mais cela sera irrelevant pour les applications présentées ici. Dans le cas presque monotone, on s’intéresse principalement à des questions de déplaçabilité, d’uniréglage et d’estimation d’énergie de difféomorphismes hamiltoniens. Enfin nous terminons par une application combinant les deux approches, concernant la dynamique d’un hamiltonien déplaçant toutes les fibres toriques non-monotones dans CPn.
Resumo:
L'activité cérébrale, reliée spécifiquement à la rétention d'information en mémoire à court-terme tactile, a été investiguée à l'aide de l'enregistrement des champs magnétiques produits par l'activité neuronale générée durant la période de rétention par une tâche de mémoire tactile. Une, deux, trois ou quatre positions, sur une possibilité de huit sur les phalangines et les phalangettes, de la main gauche ou droite, lors de blocs d'essai différents, ont été stimulées simultanément. Le patron de stimulation tactile devait être retenu pendant 1800 ms avant d'être comparé avec un patron test qui était, soit identique, soit différent par une seule position. Nos analyses se sont concentrées sur les régions du cerveau qui montraient une augmentation monotone du niveau d'activité soutenu durant la période de rétention pour un nombre croissant de positions à retenir dans le patron de stimulation. Ces régions ont plus de chance de participer à la rétention active de l'information à maintenir en mémoire à court-terme tactile. Le gyrus cingulaire (BA32), le gyrus frontal supérieur droit (BA 8), le precuneus gauche (BA 7, 19), le gyrus postcentral gauche (BA 7), le gyrus precentral droit (BA 6), le gyrus frontal supérieur gauche (BA 6) et le lobule pariétal inférieur droit (BA 40) semblent tous impliqués dans un réseau mnésique qui maintient les informations sensorielles tactiles dans un système de mémoire à court-terme spécialisé pour l'information tactile.
Utilisation de splines monotones afin de condenser des tables de mortalité dans un contexte bayésien
Resumo:
Dans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones en lignes et/ou en colonnes, pour une éventuelle application sur les tables de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons la forme fonctionnelle des données par splines bidimensionnelles. L’objectif consiste à condenser une table de mortalité, c’est-à-dire de réduire l’espace d’entreposage de la table en minimisant la perte d’information. De même, nous désirons étudier le temps nécessaire pour reconstituer la table. L’approximation doit conserver les mêmes propriétés que la table de référence, en particulier la monotonie des données. Nous travaillons avec une base de fonctions splines monotones afin d’imposer plus facilement la monotonie au modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler favorisent l’imposition de contraintes sur le modèle désiré. Après un rappel sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons l’approche au cas bidimensionnel. Nous décrivons l’intégration des contraintes de monotonie dans le modèle a priori sous l’approche hiérarchique bayésienne. Ensuite, nous indiquons comment obtenir un estimateur a posteriori à l’aide des méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le comportement de notre estimateur en modélisant une table de la loi normale ainsi qu’une table t de distribution de Student. L’estimation de nos données d’intérêt, soit la table de mortalité, s’ensuit afin d’évaluer l’amélioration de leur accessibilité.
Resumo:
Dans ce mémoire, nous traiterons du théorème de Lebesgue, un des plus frappants et des plus importants de l'analyse mathématique ; à savoir qu'une fonction à variation bornée est dérivable presque partout. Le but de ce travail est de fournir, à part la démonstration souvent proposée dans les cours de la théorie de la mesure, d'autres démonstrations élaborées avec des outils mathématiques plus simples. Ma contribution a consisté essentiellement à détailler et à compléter ces démonstrations, puis à inclure la plupart des figures pour une meilleure lisibilité. Nous allons maintenant, pour ce théorème qui se présente sous d'autres variantes, en proposer l'historique et trois démonstrations différentes.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
La recherche explore le rapport à l’école et aux savoirs scolaires de jeunes d’origine haïtienne en contexte scolaire défavorisé. Considérant des trajectoires contrastées d’élèves en réussite scolaire, d’élèves vulnérables et de jeunes décrocheurs, elle examine les processus qui concourent à la réussite socioscolaire des uns et à la moindre réussite des autres en interrogeant le sens que les jeunes accordent à l’école et à l’acte d’apprendre. La recherche documente par ailleurs la manière dont ce sens s’est construit dans la trajectoire socioscolaire depuis la maternelle. Cette approche basée sur des entretiens approfondis à caractère biographique permet d'avoir des hypothèses explicatives sur un résiduel non expliqué par les recherches quantitatives. Elle bonifie aussi la perspective de Charlot (2001) jugée trop centrée sur l'élève (Thésée, 2003). L’élève est au centre de la démarche, mais son rapport aux savoirs scolaires est analysé à travers l’exploration de la trajectoire de socialisation scolaire, familiale et communautaire et en croisant les regards des jeunes, des parents, enseignants et autres personnes significatives sur cette trajectoire. Selon les résultats de notre recherche, le rapport à l’école et aux savoirs scolaires semble plus complexe et critique chez les élèves en réussite qui identifient la valeur formative, qualifiante et socialisante de l’école. Ces derniers se mobilisent fortement dans leur apprentissage. En comparaison, les élèves en difficulté mettent plutôt l’accent sur la socialisation et la qualification et ils font preuve d’une moindre mobilisation scolaire. Certains d’entre eux se rapprochent des jeunes décrocheurs avec un rapport aux savoirs de non-sens et de désengagement. Mais au-delà de ces grandes lignes, le rapport à l’école et aux savoirs scolaires se décline différemment d’un jeune à l’autre, suivant des caractéristiques personnelles, familiales et sociales spécifiques et suivant le savoir/apprentissage scolaire considéré et son mode de transmission par l’enseignant. Les résultats de la recherche mettent en évidence le rôle d’acteur de l’élève dans son apprentissage, mais aussi celui des principaux contextes dans lesquels il évolue. L’école est particulièrement interpellée. Les élèves dénoncent la forme scolaire scripturale, perçue monotone lourde et rigide, et certaines pratiques enseignantes qui ne favorisent pas l’apprentissage (Fabre, 2007 ; Pépin, 1994). Les familles sont aussi interpellées quant à leurs valeurs, pratiques et cohésion. Enfin, la recherche souligne l’influence du réseau des pairs et des milieux communautaires. Apprendre et réussir à l’école se révèlent un enjeu individuel et social qui implique une mobilisation collective.