9 resultados para random first-order transition

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'auto-assemblage des copolymères à bloc (CPBs) attire beaucoup d'intérêt grâce à leur capacité de générer spontanément des matériaux ordonnés avec des propriétés uniques. Les techniques Langmuir-Blodgett (LB) et Langmuir-Schaefer (LS) sont couramment utilisées pour produire des monocouches ou des films ultraminces à l'interface air/eau suivi de transfert aux substrats solides. Les films LB/LS de CPBs amphiphiles s'auto-assemblent dans des morphologies variables dépendamment de la composition du CPB ainsi que d'autres facteurs. Dans notre travail, nous avons étudié les films LB/LS de polystyrène-b-poly(4-vinyl pyridine) (PS-P4VP) et leurs complexes supramoléculaires avec le naphtol (NOH), l'acide naphtoïque (NCOOH) et le 3-n-pentadécylphenol (PDP). La première partie de ce mémoire est consacré à l'investigation du PS-P4VP complexé avec le NOH et le NCOOH, en comparaison avec le PS-P4VP seul. Il a été démontré qu'un plateau dans l'isotherme de Langmuir, indicatif d'une transition de premier ordre, est absent à des concentrations élevées des solutions d'étalement des complexes. Cela a été corrélé avec l'absence de morphologie en nodules avec un ordre 2D hexagonal à basse pression de surface. L'ordre au-delà de la pression de cette transition, lorsque présente, change à un ordre 2D carré pour tout les systèmes. La deuxième partie du la mémoire considère à nouveau le système PS-P4VP/ PDP, pour lequel on a démontré antérieurement que la transition dans l'isotherme correspond a une transition 2D d'un ordre hexagonal à un ordre carré. Cela est confirmé par microscopie à force atomique, et, ensuite, on a procédé à une étude par ATR-IR des films LB pour mieux comprendre les changements au niveau moléculaire qui accompagnent cette transition. Il a été constaté que, contrairement à une étude antérieure dans la littérature sur un autre système, il n'y a aucun changement dans l'orientation des chaînes alkyles. Au lieu de cela, on a découvert que, aux pressions au-delà de celle de la transition, le groupe pyridine, qui est orienté à basse pression, devient isotrope et qu'il y a une augmentation des liaisons hydrogènes phénol-pyridine. Ces observations sont rationalisées par un collapse partiel à la pression de transition de la monocouche P4VP, qui à basse pression est ordonné au niveau moléculaire. Cette étude a mené à une meilleure compréhension des mécanismes moléculaires qui se produisent à l'interface air/eau, ce qui fournit une meilleure base pour la poursuite des applications possibles des films LB/LS dans les domaines de nanotechnologie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper considers various asymptotic approximations in the near-integrated firstorder autoregressive model with a non-zero initial condition. We first extend the work of Knight and Satchell (1993), who considered the random walk case with a zero initial condition, to derive the expansion of the relevant joint moment generating function in this more general framework. We also consider, as alternative approximations, the stochastic expansion of Phillips (1987c) and the continuous time approximation of Perron (1991). We assess how these alternative methods provide or not an adequate approximation to the finite-sample distribution of the least-squares estimator in a first-order autoregressive model. The results show that, when the initial condition is non-zero, Perron's (1991) continuous time approximation performs very well while the others only offer improvements when the initial condition is zero.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The paper investigates competition in price schedules among vertically differentiated dupolists. First order price discrimination is the unique Nash equilibrium of a sequential game in which firms determine first whether or not to commit to a uniform price, and then simultaneously choose either a single price of a price schedule. Whether the profits earned by both firms are larger or smaller under discrimination than under uniform pricing depends on the quality gap between firms, and on the disparity of consumer preferences. Firms engaged in first degree discrimination choose quality levels that are optimal from a welfare perspective. The paper also reflects on implications of these findings for pricing policies of an incumbent threatened by entry.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire porte sur l’étude des maxima de champs gaussiens. Plus précisément, l’étude portera sur la convergence en loi, la convergence du premier ordre et la convergence du deuxième ordre du maximum d’une collection de variables aléatoires gaussiennes. Les modèles de champs gaussiens présentés sont le modèle i.i.d., le modèle hiérarchique et le champ libre gaussien. Ces champs gaussiens diffèrent par le degré de corrélation entre les variables aléatoires. Le résultat principal de ce mémoire sera que la convergence en probabilité du premier ordre du maximum est la même pour les trois modèles. Quelques résultats de simulations seront présentés afin de corroborer les résultats théoriques obtenus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.