890 resultados para Constrained interval arithmetic
Resumo:
UANL
Resumo:
UANL
Resumo:
We provide a theoretical framework to explain the empirical finding that the estimated betas are sensitive to the sampling interval even when using continuously compounded returns. We suppose that stock prices have both permanent and transitory components. The permanent component is a standard geometric Brownian motion while the transitory component is a stationary Ornstein-Uhlenbeck process. The discrete time representation of the beta depends on the sampling interval and two components labelled \"permanent and transitory betas\". We show that if no transitory component is present in stock prices, then no sampling interval effect occurs. However, the presence of a transitory component implies that the beta is an increasing (decreasing) function of the sampling interval for more (less) risky assets. In our framework, assets are labelled risky if their \"permanent beta\" is greater than their \"transitory beta\" and vice versa for less risky assets. Simulations show that our theoretical results provide good approximations for the means and standard deviations of estimated betas in small samples. Our results can be perceived as indirect evidence for the presence of a transitory component in stock prices, as proposed by Fama and French (1988) and Poterba and Summers (1988).
Resumo:
UANL
Resumo:
We study the problem of provision and cost-sharing of a public good in large economies where exclusion, complete or partial, is possible. We search for incentive-constrained efficient allocation rules that display fairness properties. Population monotonicity says that an increase in population should not be detrimental to anyone. Demand monotonicity states that an increase in the demand for the public good (in the sense of a first-order stochastic dominance shift in the distribution of preferences) should not be detrimental to any agent whose preferences remain unchanged. Under suitable domain restrictions, there exists a unique incentive-constrained efficient and demand-monotonic allocation rule: the so-called serial rule. In the binary public good case, the serial rule is also the only incentive-constrained efficient and population-monotonic rule.
Resumo:
Soit $p_1 = 2, p_2 = 3, p_3 = 5,\ldots$ la suite des nombres premiers, et soient $q \ge 3$ et $a$ des entiers premiers entre eux. R\'ecemment, Daniel Shiu a d\'emontr\'e une ancienne conjecture de Sarvadaman Chowla. Ce dernier a conjectur\'e qu'il existe une infinit\'e de couples $p_n,p_{n+1}$ de premiers cons\'ecutifs tels que $p_n \equiv p_{n+1} \equiv a \bmod q$. Fixons $\epsilon > 0$. Une r\'ecente perc\'ee majeure, de Daniel Goldston, J\`anos Pintz et Cem Y{\i}ld{\i}r{\i}m, a \'et\'e de d\'emontrer qu'il existe une suite de nombres r\'eels $x$ tendant vers l'infini, tels que l'intervalle $(x,x+\epsilon\log x]$ contienne au moins deux nombres premiers $\equiv a \bmod q$. \'Etant donn\'e un couple de nombres premiers $\equiv a \bmod q$ dans un tel intervalle, il pourrait exister un nombre premier compris entre les deux qui n'est pas $\equiv a \bmod q$. On peut d\'eduire que soit il existe une suite de r\'eels $x$ tendant vers l'infini, telle que $(x,x+\epsilon\log x]$ contienne un triplet $p_n,p_{n+1},p_{n+2}$ de nombres premiers cons\'ecutifs, soit il existe une suite de r\'eels $x$, tendant vers l'infini telle que l'intervalle $(x,x+\epsilon\log x]$ contienne un couple $p_n,p_{n+1}$ de nombres premiers tel que $p_n \equiv p_{n+1} \equiv a \bmod q$. On pense que les deux \'enonc\'es sont vrais, toutefois on peut seulement d\'eduire que l'un d'entre eux est vrai, sans savoir lequel. Dans la premi\`ere partie de cette th\`ese, nous d\'emontrons que le deuxi\`eme \'enonc\'e est vrai, ce qui fournit une nouvelle d\'emonstration de la conjecture de Chowla. La preuve combine des id\'ees de Shiu et de Goldston-Pintz-Y{\i}ld{\i}r{\i}m, donc on peut consid\'erer que ce r\'esultat est une application de leurs m\'thodes. Ensuite, nous fournirons des bornes inf\'erieures pour le nombre de couples $p_n,p_{n+1}$ tels que $p_n \equiv p_{n+1} \equiv a \bmod q$, $p_{n+1} - p_n < \epsilon\log p_n$, avec $p_{n+1} \le Y$. Sous l'hypoth\`ese que $\theta$, le \og niveau de distribution \fg{} des nombres premiers, est plus grand que $1/2$, Goldston-Pintz-Y{\i}ld{\i}r{\i}m ont r\'eussi \`a d\'emontrer que $p_{n+1} - p_n \ll_{\theta} 1$ pour une infinit\'e de couples $p_n,p_{n+1}$. Sous la meme hypoth\`ese, nous d\'emontrerons que $p_{n+1} - p_n \ll_{q,\theta} 1$ et $p_n \equiv p_{n+1} \equiv a \bmod q$ pour une infinit\'e de couples $p_n,p_{n+1}$, et nous prouverons \'egalement un r\'esultat quantitatif. Dans la deuxi\`eme partie, nous allons utiliser les techniques de Goldston-Pintz-Y{\i}ld{\i}r{\i}m pour d\'emontrer qu'il existe une infinit\'e de couples de nombres premiers $p,p'$ tels que $(p-1)(p'-1)$ est une carr\'e parfait. Ce resultat est une version approximative d'une ancienne conjecture qui stipule qu'il existe une infinit\'e de nombres premiers $p$ tels que $p-1$ est une carr\'e parfait. En effet, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $n = \ell_1\cdots \ell_r$, avec $\ell_1,\ldots,\ell_r$ des premiers distincts, et tels que $(\ell_1-1)\cdots (\ell_r-1)$ est une puissance $r$-i\`eme, avec $r \ge 2$ quelconque. \'Egalement, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n = \ell_1\cdots \ell_r \le Y$ tels que $(\ell_1+1)\cdots (\ell_r+1)$ est une puissance $r$-i\`eme. Finalement, \'etant donn\'e $A$ un ensemble fini d'entiers non-nuls, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $\prod_{p \mid n} (p+a)$ est une puissance $r$-i\`eme, simultan\'ement pour chaque $a \in A$.
Resumo:
L’objectif principal de cette thèse est d’examiner et d’intervenir auprès des déficits de la mémoire de travail (MdeT) à l’intérieur de deux populations cliniques : la maladie d’Alzheimer (MA) et le trouble cognitif léger (TCL). La thèse se compose de trois articles empiriques. Le but de la première expérimentation était d’examiner les déficits de MdeT dans le vieillissement normal, le TCL et la MA à l’aide de deux versions de l’empan complexe : l’empan de phrases et l’empan arithmétique. De plus, l’effet de «l’oubli» (forgetting) a été mesuré en manipulant la longueur de l’intervalle de rétention. Les résultats aux tâches d’empan complexe indiquent que la MdeT est déficitaire chez les individus atteints de TCL et encore plus chez les gens ayant la MA. Les données recueillies supportent également le rôle de l’oubli à l’intérieur de la MdeT. L’augmentation de l’intervalle de rétention exacerbait le déficit dans la MA et permettait de prédire un pronostic négatif dans le TCL. L’objectif de la deuxième étude était d’examiner la faisabilité d’un programme d’entraînement cognitif à l’ordinateur pour la composante de contrôle attentionnel à l’intérieur de la MdeT. Cette étude a été réalisée auprès de personnes âgées saines et de personnes âgées avec TCL. Les données de cette expérimentation ont révélé des effets positifs de l’entraînement pour les deux groupes de personnes. Toutefois, l’absence d’un groupe contrôle a limité l’interprétation des résultats. Sur la base de ces données, la troisième expérimentation visait à implémenter une étude randomisée à double-insu avec groupe contrôle d’un entraînement du contrôle attentionnel chez des personnes TCL avec atteinte exécutive. Ce protocole impliquait un paradigme de double-tâche composé d’une tâche de détection visuelle et d’une tâche de jugement alpha-arithmétique. Alors que le groupe contrôle pratiquait simplement la double-tâche sur six périodes d’une heure chacune, le groupe expérimental recevait un entraînement de type priorité variable dans lequel les participants devaient gérer leur contrôle attentionnel en variant la proportion de ressources attentionnelles allouée à chaque tâche. Les résultats montrent un effet significatif de l’intervention sur une des deux tâches impliquées (précision à la tâche de détection visuelle) ainsi qu’une tendance au transfert à une autre tâche d’attention divisée, mais peu d’effets de généralisation à d’autres tâches d’attention. En résumé, les données originales rapportées dans la présente thèse démontrent un déficit de la MdeT dans les maladies neurodégénératives liées à l’âge, avec un gradient entre le TCL et la MA. Elles suggèrent également une préservation de la plasticité des capacités attentionnelles chez les personnes à risque de développer une démence.
Resumo:
A single object must be allocated to at most one of n agents. Money transfers are possible and preferences are quasilinear. We offer an explicit description of the individually rational mechanisms which are Pareto-optimal in the class of feasible, strategy-proof, anonymous and envy-free mechanisms. These mechanisms form a one-parameter infinite family; the Vickrey mechanism is the only Groves mechanism in that family.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette thèse présente une étude dans divers domaines de l'informatique théorique de modèles de calculs combinant automates finis et contraintes arithmétiques. Nous nous intéressons aux questions de décidabilité, d'expressivité et de clôture, tout en ouvrant l'étude à la complexité, la logique, l'algèbre et aux applications. Cette étude est présentée au travers de quatre articles de recherche. Le premier article, Affine Parikh Automata, poursuit l'étude de Klaedtke et Ruess des automates de Parikh et en définit des généralisations et restrictions. L'automate de Parikh est un point de départ de cette thèse; nous montrons que ce modèle de calcul est équivalent à l'automate contraint que nous définissons comme un automate qui n'accepte un mot que si le nombre de fois que chaque transition est empruntée répond à une contrainte arithmétique. Ce modèle est naturellement étendu à l'automate de Parikh affine qui effectue une opération affine sur un ensemble de registres lors du franchissement d'une transition. Nous étudions aussi l'automate de Parikh sur lettres: un automate qui n'accepte un mot que si le nombre de fois que chaque lettre y apparaît répond à une contrainte arithmétique. Le deuxième article, Bounded Parikh Automata, étudie les langages bornés des automates de Parikh. Un langage est borné s'il existe des mots w_1, w_2, ..., w_k tels que chaque mot du langage peut s'écrire w_1...w_1w_2...w_2...w_k...w_k. Ces langages sont importants dans des domaines applicatifs et présentent usuellement de bonnes propriétés théoriques. Nous montrons que dans le contexte des langages bornés, le déterminisme n'influence pas l'expressivité des automates de Parikh. Le troisième article, Unambiguous Constrained Automata, introduit les automates contraints non ambigus, c'est-à-dire pour lesquels il n'existe qu'un chemin acceptant par mot reconnu par l'automate. Nous montrons qu'il s'agit d'un modèle combinant une meilleure expressivité et de meilleures propriétés de clôture que l'automate contraint déterministe. Le problème de déterminer si le langage d'un automate contraint non ambigu est régulier est montré décidable. Le quatrième article, Algebra and Complexity Meet Contrained Automata, présente une étude des représentations algébriques qu'admettent les automates contraints et les automates de Parikh affines. Nous déduisons de ces caractérisations des résultats d'expressivité et de complexité. Nous montrons aussi que certaines hypothèses classiques en complexité computationelle sont reliées à des résultats de séparation et de non clôture dans les automates de Parikh affines. La thèse est conclue par une ouverture à un possible approfondissement, au travers d'un certain nombre de problèmes ouverts.
Resumo:
Cette thèse décrit deux thèmes principaux: 1) la conception, la synthèse, et l'évaluation biophysique des nucléosides tricycliques, et 2) la synthèse de nagilactone B, un produit naturel norditerpenoïde dilactone de la famille de produits naturels “podolactone”. Le premier chapitre décrit la stratégie de design rationnel des nucléosides nommé “restriction conformationnelle double” basée sur les études de modélisation structurales des duplex ADN–ARN modifiés. Cette stratégie implique un blocage du cycle furanose dans une configuration de type N- ou S, et une restriction de la rotation torsionelle autour de l’angle γ. La première contrainte a été incorporée avec un pont méthylène entre l’oxygène en position 2′ et le carbone 4′ du nucléoside. Cette stratégie a été inspirée par les acides nucléiques bloqués (ou “locked nucleic acid”, LNA). La deuxième contrainte a été réalisée en ajoutant un carbocycle supplémentaire dans l'échafaud de l’acide nucléique bloqué. Les défis synthétiques de la formation des nucléotides modifiés à partir des carbohydrates sont décrits ainsi que les améliorations aux stabilités thermiques qu’ils apportent aux duplex oligonucléïques dont ils font partie. Chapitres deux et trois décrivent le développement de deux voies synthétiques complémentaires pour la formation du noyau de nagilactone B. Ce produit naturel a des implications pour le syndrome de Hutchinson–Gilford, à cause de son habilité de jouer le rôle de modulateur de l’épissage d’ARN pré-messager de lamine A. Ce produit naturel contient sept stereocentres différents, dont deux quaternaires et deux comprenant un syn-1,2-diol, ainsi que des lactones à cinq ou six membres, où le cycle à six ressemble à un groupement α-pyrone. La synthèse a débuté avec la cétone de Wieland-Miescher qui a permis d’adresser les défis structurels ainsi qu’explorer les fonctionnalisations des cycles A, B et D du noyau de nagilactone B.
Resumo:
We study the relaxational dynamics of the one-spin facilitated Ising model introduced by Fredrickson and Andersen. We show the existence of a critical time which separates an initial regime in which the relaxation is exponentially fast and aging is absent from a regime in which relaxation becomes slow and aging effects are present. The presence of this fast exponential process and its associated critical time is in agreement with some recent experimental results on fragile glasses.
Resumo:
In this article, we study reliability measures such as geometric vitality function and conditional Shannon’s measures of uncertainty proposed by Ebrahimi (1996) and Sankaran and Gupta (1999), respectively, for the doubly (interval) truncated random variables. In survival analysis and reliability engineering, these measures play a significant role in studying the various characteristics of a system/component when it fails between two time points. The interrelationships among these uncertainty measures for various distributions are derived and proved characterization theorems arising out of them
Resumo:
En esta investigación se ha estudiado la relación entre dos subsistemas de la memoria de trabajo (bucle fonológico y agenda viso-espacial) y el rendimiento en cálculo con una muestra de 94 niños españoles de 7-8 años. Hemos administrado dos pruebas de cálculo diseñadas para este estudio y seis medidas simples de memoria de trabajo (de contenido verbal, numérico y espacial) de la «Batería de Tests de Memoria de Treball» de Pickering, Baqués y Gathercole (1999), y dos pruebas visuales complementarias. Los resultados muestran una correlación importante entre las medidas de contenido verbal y numérico y el rendimiento en cálculo. En cambio, no hemos encontrado ninguna relación con las medidas espaciales. Se concluye, por lo tanto, que en escolares españoles existe una relación importante entre el bucle fonológico y el rendimiento en tareas de cálculo. En cambio, el rol de la agenda viso-espacial es nulo