150 resultados para Monotone
Resumo:
Les trois essais dans cette thèse étudient les implications des frictions financières, telles que les contraintes de collatérale ou de crédit, pour les décisions économiques des agents et leur impact sur les variables macro-économiques agrégées. Dans le premier chapitre "Financial Contracts and the Political Economy of Investor Protection" nous proposons une théorie du niveau de protection des investisseurs. Une faible protection des investisseurs implique un coût de financement externe plus élevé à cause des problèmes d'agence plus aigus entre les investisseurs et les entrepreneurs. À l'équilibre, ceci exclut les agents plus dépendants sur le financement externe de l'entrepreneuriat, ce qui augmente les profits des entrepreneurs qui restent actifs. Quand le niveau de la protection des investisseurs est choisi par un vote majoritaire, la théorie génère (i) une protection des investisseurs plus faible dans les économies avec plus grande inégalité dans les besoins de financement externe parmi les entrepreneurs, (ii) une dynamique non-monotone de l'output, (iii) améliorations (détériorations) de la protection des investisseurs suite à des ralentissements (accélérations) de l'output agrégé. L'évidence empirique donne un support à ces prédictions de la théorie. Dans le deuxième chapitre "Financial Frictions, Internal Capital Markets, and the Organization of Production", nous examinons comment la présence des frictions financières peut mener à la formation des conglomérats et des "business groups" diversifiées. Particulièrement, nous construisons un modèle d'équilibre général d'entrepreneuriat dans lequel les conglomérats émergent de façon endogène et substituent partiellement le marché du crédit imparfait. Nous montrons que ce modèle est capable d'expliquer quantitativement plusieurs faits stylisés concernant l'organisation de la production, les différences de productivité entre les firmes et les différences en présence des conglomérats entre les pays. Le troisième chapitre "Size and Productivity of Single-segment and Diversified Firms: Evidence from Canadian Manufacturing" étudie empiriquement la relation entre la taille, la productivité, et la structure organisationnelle d'une firme. Utilisant les micro-données sur les établissements manufacturiers canadiens, nous documentons plusieurs faits stylisés concernant la taille et la productivité totale des facteurs des établissements dans les conglomérats et dans les firmes non-diversifiées. Nous trouvons que les établissements dans les conglomérats sont en moyenne plus larges que leurs contreparties dans les firmes non-diversifiées, les petits établissements dans les conglomérats sont moins productifs que les établissements de taille similaire dans les firmes non-diversifiées, mais les larges établissements dans les conglomérats sont plus productifs que ceux de taille similaire dans les firmes non-diversifiées. Cette évidence est consistante avec réallocation interne efficiente des ressources au sein des conglomérats.
Resumo:
Soit (M,ω) un variété symplectique fermée et connexe.On considère des sous-variétés lagrangiennes α : L → (M,ω). Si α est monotone, c.- à-d. s’il existe η > 0 tel que ημ = ω, Paul Biran et Octav Conea ont défini une version relative de l’homologie quantique. Dans ce contexte ils ont déformé l’opérateur de bord du complexe de Morse ainsi que le produit d’intersection à l’aide de disques pseudo-holomorphes. On note (QH(L), ∗), l’homologie quantique de L munie du produit quantique. Le principal objectif de cette dissertation est de généraliser leur construction à un classe plus large d’espaces. Plus précisément on considère soit des sous-variétés presque monotone, c.-à-d. α est C1-proche d’un plongement lagrangian monotone ; soit les fibres toriques de variétés toriques Fano. Dans ces cas non nécessairement monotones, QH(L) va dépendre de certains choix, mais cela sera irrelevant pour les applications présentées ici. Dans le cas presque monotone, on s’intéresse principalement à des questions de déplaçabilité, d’uniréglage et d’estimation d’énergie de difféomorphismes hamiltoniens. Enfin nous terminons par une application combinant les deux approches, concernant la dynamique d’un hamiltonien déplaçant toutes les fibres toriques non-monotones dans CPn.
Resumo:
L'activité cérébrale, reliée spécifiquement à la rétention d'information en mémoire à court-terme tactile, a été investiguée à l'aide de l'enregistrement des champs magnétiques produits par l'activité neuronale générée durant la période de rétention par une tâche de mémoire tactile. Une, deux, trois ou quatre positions, sur une possibilité de huit sur les phalangines et les phalangettes, de la main gauche ou droite, lors de blocs d'essai différents, ont été stimulées simultanément. Le patron de stimulation tactile devait être retenu pendant 1800 ms avant d'être comparé avec un patron test qui était, soit identique, soit différent par une seule position. Nos analyses se sont concentrées sur les régions du cerveau qui montraient une augmentation monotone du niveau d'activité soutenu durant la période de rétention pour un nombre croissant de positions à retenir dans le patron de stimulation. Ces régions ont plus de chance de participer à la rétention active de l'information à maintenir en mémoire à court-terme tactile. Le gyrus cingulaire (BA32), le gyrus frontal supérieur droit (BA 8), le precuneus gauche (BA 7, 19), le gyrus postcentral gauche (BA 7), le gyrus precentral droit (BA 6), le gyrus frontal supérieur gauche (BA 6) et le lobule pariétal inférieur droit (BA 40) semblent tous impliqués dans un réseau mnésique qui maintient les informations sensorielles tactiles dans un système de mémoire à court-terme spécialisé pour l'information tactile.
Utilisation de splines monotones afin de condenser des tables de mortalité dans un contexte bayésien
Resumo:
Dans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones en lignes et/ou en colonnes, pour une éventuelle application sur les tables de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons la forme fonctionnelle des données par splines bidimensionnelles. L’objectif consiste à condenser une table de mortalité, c’est-à-dire de réduire l’espace d’entreposage de la table en minimisant la perte d’information. De même, nous désirons étudier le temps nécessaire pour reconstituer la table. L’approximation doit conserver les mêmes propriétés que la table de référence, en particulier la monotonie des données. Nous travaillons avec une base de fonctions splines monotones afin d’imposer plus facilement la monotonie au modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler favorisent l’imposition de contraintes sur le modèle désiré. Après un rappel sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons l’approche au cas bidimensionnel. Nous décrivons l’intégration des contraintes de monotonie dans le modèle a priori sous l’approche hiérarchique bayésienne. Ensuite, nous indiquons comment obtenir un estimateur a posteriori à l’aide des méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le comportement de notre estimateur en modélisant une table de la loi normale ainsi qu’une table t de distribution de Student. L’estimation de nos données d’intérêt, soit la table de mortalité, s’ensuit afin d’évaluer l’amélioration de leur accessibilité.
Resumo:
Dans ce mémoire, nous traiterons du théorème de Lebesgue, un des plus frappants et des plus importants de l'analyse mathématique ; à savoir qu'une fonction à variation bornée est dérivable presque partout. Le but de ce travail est de fournir, à part la démonstration souvent proposée dans les cours de la théorie de la mesure, d'autres démonstrations élaborées avec des outils mathématiques plus simples. Ma contribution a consisté essentiellement à détailler et à compléter ces démonstrations, puis à inclure la plupart des figures pour une meilleure lisibilité. Nous allons maintenant, pour ce théorème qui se présente sous d'autres variantes, en proposer l'historique et trois démonstrations différentes.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
La recherche explore le rapport à l’école et aux savoirs scolaires de jeunes d’origine haïtienne en contexte scolaire défavorisé. Considérant des trajectoires contrastées d’élèves en réussite scolaire, d’élèves vulnérables et de jeunes décrocheurs, elle examine les processus qui concourent à la réussite socioscolaire des uns et à la moindre réussite des autres en interrogeant le sens que les jeunes accordent à l’école et à l’acte d’apprendre. La recherche documente par ailleurs la manière dont ce sens s’est construit dans la trajectoire socioscolaire depuis la maternelle. Cette approche basée sur des entretiens approfondis à caractère biographique permet d'avoir des hypothèses explicatives sur un résiduel non expliqué par les recherches quantitatives. Elle bonifie aussi la perspective de Charlot (2001) jugée trop centrée sur l'élève (Thésée, 2003). L’élève est au centre de la démarche, mais son rapport aux savoirs scolaires est analysé à travers l’exploration de la trajectoire de socialisation scolaire, familiale et communautaire et en croisant les regards des jeunes, des parents, enseignants et autres personnes significatives sur cette trajectoire. Selon les résultats de notre recherche, le rapport à l’école et aux savoirs scolaires semble plus complexe et critique chez les élèves en réussite qui identifient la valeur formative, qualifiante et socialisante de l’école. Ces derniers se mobilisent fortement dans leur apprentissage. En comparaison, les élèves en difficulté mettent plutôt l’accent sur la socialisation et la qualification et ils font preuve d’une moindre mobilisation scolaire. Certains d’entre eux se rapprochent des jeunes décrocheurs avec un rapport aux savoirs de non-sens et de désengagement. Mais au-delà de ces grandes lignes, le rapport à l’école et aux savoirs scolaires se décline différemment d’un jeune à l’autre, suivant des caractéristiques personnelles, familiales et sociales spécifiques et suivant le savoir/apprentissage scolaire considéré et son mode de transmission par l’enseignant. Les résultats de la recherche mettent en évidence le rôle d’acteur de l’élève dans son apprentissage, mais aussi celui des principaux contextes dans lesquels il évolue. L’école est particulièrement interpellée. Les élèves dénoncent la forme scolaire scripturale, perçue monotone lourde et rigide, et certaines pratiques enseignantes qui ne favorisent pas l’apprentissage (Fabre, 2007 ; Pépin, 1994). Les familles sont aussi interpellées quant à leurs valeurs, pratiques et cohésion. Enfin, la recherche souligne l’influence du réseau des pairs et des milieux communautaires. Apprendre et réussir à l’école se révèlent un enjeu individuel et social qui implique une mobilisation collective.
Resumo:
Cette thèse présente quelques propriétés des sous-variétés lagrangiennes monotones. On résoud d'abord une conjecture de Barraud et Cornea dans le cadre monotone en montrant que le rayon de Gromov relatif à deux lagrangiennes dans la même classe d'isotopie hamiltonienne donne une borne inférieure à la distance de Hofer entre ces deux mêmes lagrangiennes. Le cas non-monotone de cette conjecture reste ouvert encore. On définit toutes les structures nécessaires à l'énoncé et à la preuve de cette conjecture. Deuxièmement, on définit une nouvelle version d'un morphisme de Seidel relatif à l'aide des cobordismes lagrangiens de Biran et Cornea. On montre que cette version est chaîne-homotope aux différentes autres versions apparaissant dans la littérature. Que toutes ces définitions sont équivalentes fait partie du folklore mais n'apparaît pas dans la littérature. On conclut par une conjecture qui identifie un triangle exact obtenu par chirurgie lagrangienne et un autre dû à Seidel et faisant intervenir le twist de Dehn symplectique.
Resumo:
Dans ce travail, nous définissons des objets composés de disques complexes marqués reliés entre eux par des segments de droite munis d’une longueur. Nous construisons deux séries d’espaces de module de ces objets appelés clus- ters, une qui sera dite non symétrique, la version ⊗, et l’autre qui est dite symétrique, la version •. Cette construction permet des choix de perturba- tions pour deux versions correspondantes des trajectoires de Floer introduites par Cornea et Lalonde ([CL]). Ces choix devraient fournir une nouvelle option pour la description géométrique des structures A∞ et L∞ obstruées étudiées par Fukaya, Oh, Ohta et Ono ([FOOO2],[FOOO]) et Cho ([Cho]). Dans le cas où L ⊂ (M, ω) est une sous-variété lagrangienne Pin± mono- tone avec nombre de Maslov ≥ 2, nous définissons une structure d’algèbre A∞ sur les points critiques d’une fonction de Morse générique sur L. Cette struc- ture est présentée comme une extension du complexe des perles de Oh ([Oh]) muni de son produit quantique, plus récemment étudié par Biran et Cornea ([BC]). Plus généralement, nous décrivons une version géométrique d’une catégorie de Fukaya avec seul objet L qui se veut alternative à la description (relative) hamiltonienne de Seidel ([Sei]). Nous vérifions la fonctorialité de notre construction en définissant des espaces de module de clusters occultés qui servent d’espaces sources pour des morphismes de comparaison.
Resumo:
Les fichiers qui accompagnent mon document ont été réalisés avec le logiciel Latex et les simulations ont été réalisés par Splus(R).
Resumo:
Thèse par articles.
Resumo:
Ce mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour.
Resumo:
Les cinquante-sept fragments rassemblés par Régis Jauffret présentent une suite de séquences de la vie de gens quelconques qui subissent l’existence comme un mal lancinant insupportable d’ennui, de solitude ou de promiscuité. Loin de proposer, comme le fait Philippe Delerm, une collection de vignettes des petits bonheurs ordinaires ou de rassembler, à la manière d’Annie Ernaux, des instantanés de la vie quotidienne collective révélateurs d’une époque, Jauffret fait défiler des fragments de vie qui, à force de s’additionner, perdent leurs contours distinctifs, se confondent les uns avec les autres et finissent par former un kaléidoscope monotone, indifférent, de la vie quotidienne des gens. La banalité de ces vies sans relief tient entre autres à la similitude des appartements, des rues, des situations aussi intenables les unes que les autres. Aucune vie, pourtant, n’est pareille aux autres, aucun parcours n’est exactement le même, mais tous sont pareillement ravalés dans l’uniformité de ce qui va, sans but, « quel que soit le chemin ». L’existence est insupportable mais on existe de toute façon, et ce sont toutes ces façons d’exister, sans nécessité, sans joie ni valeur ajoutée, que Jauffret accumule, exhibant jusqu’à saturation les vies banales de gens qui souffrent de toute façon, de toutes les façons. [Introduction]
Resumo:
Department of Mathematics, Cochin University of Science and Technology.
Resumo:
Die vorliegende Arbeit behandelt Restartautomaten und Erweiterungen von Restartautomaten. Restartautomaten sind ein Werkzeug zum Erkennen formaler Sprachen. Sie sind motiviert durch die linguistische Methode der Analyse durch Reduktion und wurden 1995 von Jancar, Mráz, Plátek und Vogel eingeführt. Restartautomaten bestehen aus einer endlichen Kontrolle, einem Lese/Schreibfenster fester Größe und einem flexiblen Band. Anfänglich enthält dieses sowohl die Eingabe als auch Bandbegrenzungssymbole. Die Berechnung eines Restartautomaten läuft in so genannten Zyklen ab. Diese beginnen am linken Rand im Startzustand, in ihnen wird eine lokale Ersetzung auf dem Band durchgeführt und sie enden mit einem Neustart, bei dem das Lese/Schreibfenster wieder an den linken Rand bewegt wird und der Startzustand wieder eingenommen wird. Die vorliegende Arbeit beschäftigt sich hauptsächlich mit zwei Erweiterungen der Restartautomaten: CD-Systeme von Restartautomaten und nichtvergessende Restartautomaten. Nichtvergessende Restartautomaten können einen Zyklus in einem beliebigen Zustand beenden und CD-Systeme von Restartautomaten bestehen aus einer Menge von Restartautomaten, die zusammen die Eingabe verarbeiten. Dabei wird ihre Zusammenarbeit durch einen Operationsmodus, ähnlich wie bei CD-Grammatik Systemen, geregelt. Für beide Erweiterungen zeigt sich, dass die deterministischen Modelle mächtiger sind als deterministische Standardrestartautomaten. Es wird gezeigt, dass CD-Systeme von Restartautomaten in vielen Fällen durch nichtvergessende Restartautomaten simuliert werden können und andererseits lassen sich auch nichtvergessende Restartautomaten durch CD-Systeme von Restartautomaten simulieren. Des Weiteren werden Restartautomaten und nichtvergessende Restartautomaten untersucht, die nichtdeterministisch sind, aber keine Fehler machen. Es zeigt sich, dass diese Automaten durch deterministische (nichtvergessende) Restartautomaten simuliert werden können, wenn sie direkt nach der Ersetzung einen neuen Zyklus beginnen, oder ihr Fenster nach links und rechts bewegen können. Außerdem gilt, dass alle (nichtvergessenden) Restartautomaten, die zwar Fehler machen dürfen, diese aber nach endlich vielen Zyklen erkennen, durch (nichtvergessende) Restartautomaten simuliert werden können, die keine Fehler machen. Ein weiteres wichtiges Resultat besagt, dass die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt den Zyklus beenden, genau die deterministischen kontextfreien Sprachen erkennen, wohingegen die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen ohne diese Einschränkung echt mehr, nämlich die links-rechts regulären Sprachen, erkennen. Damit werden zum ersten Mal Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt ihren Zyklus beenden, von Restartautomaten desselben Typs ohne diese Einschränkung getrennt. Besonders erwähnenswert ist hierbei, dass beide Automatentypen wohlbekannte Sprachklassen beschreiben.