10 resultados para Constrained interval arithmetic
em Université de Montréal, Canada
Resumo:
Les surfaces de subdivision fournissent une méthode alternative prometteuse dans la modélisation géométrique, et ont des avantages sur la représentation classique de trimmed-NURBS, en particulier dans la modélisation de surfaces lisses par morceaux. Dans ce mémoire, nous considérons le problème des opérations géométriques sur les surfaces de subdivision, avec l'exigence stricte de forme topologique correcte. Puisque ce problème peut être mal conditionné, nous proposons une approche pour la gestion de l'incertitude qui existe dans le calcul géométrique. Nous exigeons l'exactitude des informations topologiques lorsque l'on considère la nature de robustesse du problème des opérations géométriques sur les modèles de solides, et il devient clair que le problème peut être mal conditionné en présence de l'incertitude qui est omniprésente dans les données. Nous proposons donc une approche interactive de gestion de l'incertitude des opérations géométriques, dans le cadre d'un calcul basé sur la norme IEEE arithmétique et la modélisation en surfaces de subdivision. Un algorithme pour le problème planar-cut est alors présenté qui a comme but de satisfaire à l'exigence topologique mentionnée ci-dessus.
Resumo:
We provide a theoretical framework to explain the empirical finding that the estimated betas are sensitive to the sampling interval even when using continuously compounded returns. We suppose that stock prices have both permanent and transitory components. The permanent component is a standard geometric Brownian motion while the transitory component is a stationary Ornstein-Uhlenbeck process. The discrete time representation of the beta depends on the sampling interval and two components labelled \"permanent and transitory betas\". We show that if no transitory component is present in stock prices, then no sampling interval effect occurs. However, the presence of a transitory component implies that the beta is an increasing (decreasing) function of the sampling interval for more (less) risky assets. In our framework, assets are labelled risky if their \"permanent beta\" is greater than their \"transitory beta\" and vice versa for less risky assets. Simulations show that our theoretical results provide good approximations for the means and standard deviations of estimated betas in small samples. Our results can be perceived as indirect evidence for the presence of a transitory component in stock prices, as proposed by Fama and French (1988) and Poterba and Summers (1988).
Resumo:
We study the problem of provision and cost-sharing of a public good in large economies where exclusion, complete or partial, is possible. We search for incentive-constrained efficient allocation rules that display fairness properties. Population monotonicity says that an increase in population should not be detrimental to anyone. Demand monotonicity states that an increase in the demand for the public good (in the sense of a first-order stochastic dominance shift in the distribution of preferences) should not be detrimental to any agent whose preferences remain unchanged. Under suitable domain restrictions, there exists a unique incentive-constrained efficient and demand-monotonic allocation rule: the so-called serial rule. In the binary public good case, the serial rule is also the only incentive-constrained efficient and population-monotonic rule.
Resumo:
Soit $p_1 = 2, p_2 = 3, p_3 = 5,\ldots$ la suite des nombres premiers, et soient $q \ge 3$ et $a$ des entiers premiers entre eux. R\'ecemment, Daniel Shiu a d\'emontr\'e une ancienne conjecture de Sarvadaman Chowla. Ce dernier a conjectur\'e qu'il existe une infinit\'e de couples $p_n,p_{n+1}$ de premiers cons\'ecutifs tels que $p_n \equiv p_{n+1} \equiv a \bmod q$. Fixons $\epsilon > 0$. Une r\'ecente perc\'ee majeure, de Daniel Goldston, J\`anos Pintz et Cem Y{\i}ld{\i}r{\i}m, a \'et\'e de d\'emontrer qu'il existe une suite de nombres r\'eels $x$ tendant vers l'infini, tels que l'intervalle $(x,x+\epsilon\log x]$ contienne au moins deux nombres premiers $\equiv a \bmod q$. \'Etant donn\'e un couple de nombres premiers $\equiv a \bmod q$ dans un tel intervalle, il pourrait exister un nombre premier compris entre les deux qui n'est pas $\equiv a \bmod q$. On peut d\'eduire que soit il existe une suite de r\'eels $x$ tendant vers l'infini, telle que $(x,x+\epsilon\log x]$ contienne un triplet $p_n,p_{n+1},p_{n+2}$ de nombres premiers cons\'ecutifs, soit il existe une suite de r\'eels $x$, tendant vers l'infini telle que l'intervalle $(x,x+\epsilon\log x]$ contienne un couple $p_n,p_{n+1}$ de nombres premiers tel que $p_n \equiv p_{n+1} \equiv a \bmod q$. On pense que les deux \'enonc\'es sont vrais, toutefois on peut seulement d\'eduire que l'un d'entre eux est vrai, sans savoir lequel. Dans la premi\`ere partie de cette th\`ese, nous d\'emontrons que le deuxi\`eme \'enonc\'e est vrai, ce qui fournit une nouvelle d\'emonstration de la conjecture de Chowla. La preuve combine des id\'ees de Shiu et de Goldston-Pintz-Y{\i}ld{\i}r{\i}m, donc on peut consid\'erer que ce r\'esultat est une application de leurs m\'thodes. Ensuite, nous fournirons des bornes inf\'erieures pour le nombre de couples $p_n,p_{n+1}$ tels que $p_n \equiv p_{n+1} \equiv a \bmod q$, $p_{n+1} - p_n < \epsilon\log p_n$, avec $p_{n+1} \le Y$. Sous l'hypoth\`ese que $\theta$, le \og niveau de distribution \fg{} des nombres premiers, est plus grand que $1/2$, Goldston-Pintz-Y{\i}ld{\i}r{\i}m ont r\'eussi \`a d\'emontrer que $p_{n+1} - p_n \ll_{\theta} 1$ pour une infinit\'e de couples $p_n,p_{n+1}$. Sous la meme hypoth\`ese, nous d\'emontrerons que $p_{n+1} - p_n \ll_{q,\theta} 1$ et $p_n \equiv p_{n+1} \equiv a \bmod q$ pour une infinit\'e de couples $p_n,p_{n+1}$, et nous prouverons \'egalement un r\'esultat quantitatif. Dans la deuxi\`eme partie, nous allons utiliser les techniques de Goldston-Pintz-Y{\i}ld{\i}r{\i}m pour d\'emontrer qu'il existe une infinit\'e de couples de nombres premiers $p,p'$ tels que $(p-1)(p'-1)$ est une carr\'e parfait. Ce resultat est une version approximative d'une ancienne conjecture qui stipule qu'il existe une infinit\'e de nombres premiers $p$ tels que $p-1$ est une carr\'e parfait. En effet, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $n = \ell_1\cdots \ell_r$, avec $\ell_1,\ldots,\ell_r$ des premiers distincts, et tels que $(\ell_1-1)\cdots (\ell_r-1)$ est une puissance $r$-i\`eme, avec $r \ge 2$ quelconque. \'Egalement, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n = \ell_1\cdots \ell_r \le Y$ tels que $(\ell_1+1)\cdots (\ell_r+1)$ est une puissance $r$-i\`eme. Finalement, \'etant donn\'e $A$ un ensemble fini d'entiers non-nuls, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $\prod_{p \mid n} (p+a)$ est une puissance $r$-i\`eme, simultan\'ement pour chaque $a \in A$.
Resumo:
L’objectif principal de cette thèse est d’examiner et d’intervenir auprès des déficits de la mémoire de travail (MdeT) à l’intérieur de deux populations cliniques : la maladie d’Alzheimer (MA) et le trouble cognitif léger (TCL). La thèse se compose de trois articles empiriques. Le but de la première expérimentation était d’examiner les déficits de MdeT dans le vieillissement normal, le TCL et la MA à l’aide de deux versions de l’empan complexe : l’empan de phrases et l’empan arithmétique. De plus, l’effet de «l’oubli» (forgetting) a été mesuré en manipulant la longueur de l’intervalle de rétention. Les résultats aux tâches d’empan complexe indiquent que la MdeT est déficitaire chez les individus atteints de TCL et encore plus chez les gens ayant la MA. Les données recueillies supportent également le rôle de l’oubli à l’intérieur de la MdeT. L’augmentation de l’intervalle de rétention exacerbait le déficit dans la MA et permettait de prédire un pronostic négatif dans le TCL. L’objectif de la deuxième étude était d’examiner la faisabilité d’un programme d’entraînement cognitif à l’ordinateur pour la composante de contrôle attentionnel à l’intérieur de la MdeT. Cette étude a été réalisée auprès de personnes âgées saines et de personnes âgées avec TCL. Les données de cette expérimentation ont révélé des effets positifs de l’entraînement pour les deux groupes de personnes. Toutefois, l’absence d’un groupe contrôle a limité l’interprétation des résultats. Sur la base de ces données, la troisième expérimentation visait à implémenter une étude randomisée à double-insu avec groupe contrôle d’un entraînement du contrôle attentionnel chez des personnes TCL avec atteinte exécutive. Ce protocole impliquait un paradigme de double-tâche composé d’une tâche de détection visuelle et d’une tâche de jugement alpha-arithmétique. Alors que le groupe contrôle pratiquait simplement la double-tâche sur six périodes d’une heure chacune, le groupe expérimental recevait un entraînement de type priorité variable dans lequel les participants devaient gérer leur contrôle attentionnel en variant la proportion de ressources attentionnelles allouée à chaque tâche. Les résultats montrent un effet significatif de l’intervention sur une des deux tâches impliquées (précision à la tâche de détection visuelle) ainsi qu’une tendance au transfert à une autre tâche d’attention divisée, mais peu d’effets de généralisation à d’autres tâches d’attention. En résumé, les données originales rapportées dans la présente thèse démontrent un déficit de la MdeT dans les maladies neurodégénératives liées à l’âge, avec un gradient entre le TCL et la MA. Elles suggèrent également une préservation de la plasticité des capacités attentionnelles chez les personnes à risque de développer une démence.
Resumo:
A single object must be allocated to at most one of n agents. Money transfers are possible and preferences are quasilinear. We offer an explicit description of the individually rational mechanisms which are Pareto-optimal in the class of feasible, strategy-proof, anonymous and envy-free mechanisms. These mechanisms form a one-parameter infinite family; the Vickrey mechanism is the only Groves mechanism in that family.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette thèse présente une étude dans divers domaines de l'informatique théorique de modèles de calculs combinant automates finis et contraintes arithmétiques. Nous nous intéressons aux questions de décidabilité, d'expressivité et de clôture, tout en ouvrant l'étude à la complexité, la logique, l'algèbre et aux applications. Cette étude est présentée au travers de quatre articles de recherche. Le premier article, Affine Parikh Automata, poursuit l'étude de Klaedtke et Ruess des automates de Parikh et en définit des généralisations et restrictions. L'automate de Parikh est un point de départ de cette thèse; nous montrons que ce modèle de calcul est équivalent à l'automate contraint que nous définissons comme un automate qui n'accepte un mot que si le nombre de fois que chaque transition est empruntée répond à une contrainte arithmétique. Ce modèle est naturellement étendu à l'automate de Parikh affine qui effectue une opération affine sur un ensemble de registres lors du franchissement d'une transition. Nous étudions aussi l'automate de Parikh sur lettres: un automate qui n'accepte un mot que si le nombre de fois que chaque lettre y apparaît répond à une contrainte arithmétique. Le deuxième article, Bounded Parikh Automata, étudie les langages bornés des automates de Parikh. Un langage est borné s'il existe des mots w_1, w_2, ..., w_k tels que chaque mot du langage peut s'écrire w_1...w_1w_2...w_2...w_k...w_k. Ces langages sont importants dans des domaines applicatifs et présentent usuellement de bonnes propriétés théoriques. Nous montrons que dans le contexte des langages bornés, le déterminisme n'influence pas l'expressivité des automates de Parikh. Le troisième article, Unambiguous Constrained Automata, introduit les automates contraints non ambigus, c'est-à-dire pour lesquels il n'existe qu'un chemin acceptant par mot reconnu par l'automate. Nous montrons qu'il s'agit d'un modèle combinant une meilleure expressivité et de meilleures propriétés de clôture que l'automate contraint déterministe. Le problème de déterminer si le langage d'un automate contraint non ambigu est régulier est montré décidable. Le quatrième article, Algebra and Complexity Meet Contrained Automata, présente une étude des représentations algébriques qu'admettent les automates contraints et les automates de Parikh affines. Nous déduisons de ces caractérisations des résultats d'expressivité et de complexité. Nous montrons aussi que certaines hypothèses classiques en complexité computationelle sont reliées à des résultats de séparation et de non clôture dans les automates de Parikh affines. La thèse est conclue par une ouverture à un possible approfondissement, au travers d'un certain nombre de problèmes ouverts.
Resumo:
Cette thèse décrit deux thèmes principaux: 1) la conception, la synthèse, et l'évaluation biophysique des nucléosides tricycliques, et 2) la synthèse de nagilactone B, un produit naturel norditerpenoïde dilactone de la famille de produits naturels “podolactone”. Le premier chapitre décrit la stratégie de design rationnel des nucléosides nommé “restriction conformationnelle double” basée sur les études de modélisation structurales des duplex ADN–ARN modifiés. Cette stratégie implique un blocage du cycle furanose dans une configuration de type N- ou S, et une restriction de la rotation torsionelle autour de l’angle γ. La première contrainte a été incorporée avec un pont méthylène entre l’oxygène en position 2′ et le carbone 4′ du nucléoside. Cette stratégie a été inspirée par les acides nucléiques bloqués (ou “locked nucleic acid”, LNA). La deuxième contrainte a été réalisée en ajoutant un carbocycle supplémentaire dans l'échafaud de l’acide nucléique bloqué. Les défis synthétiques de la formation des nucléotides modifiés à partir des carbohydrates sont décrits ainsi que les améliorations aux stabilités thermiques qu’ils apportent aux duplex oligonucléïques dont ils font partie. Chapitres deux et trois décrivent le développement de deux voies synthétiques complémentaires pour la formation du noyau de nagilactone B. Ce produit naturel a des implications pour le syndrome de Hutchinson–Gilford, à cause de son habilité de jouer le rôle de modulateur de l’épissage d’ARN pré-messager de lamine A. Ce produit naturel contient sept stereocentres différents, dont deux quaternaires et deux comprenant un syn-1,2-diol, ainsi que des lactones à cinq ou six membres, où le cycle à six ressemble à un groupement α-pyrone. La synthèse a débuté avec la cétone de Wieland-Miescher qui a permis d’adresser les défis structurels ainsi qu’explorer les fonctionnalisations des cycles A, B et D du noyau de nagilactone B.
Resumo:
Cette thèse se compose en deux parties: Première Partie: La conception et la synthèse d’analogues pyrrolidiniques, utilisés comme agents anticancéreux, dérivés du FTY720. FTY720 est actuellement commercialisé comme médicament (GilenyaTM) pour le traitement de la sclérose en plaques rémittente-récurrente. Il agit comme immunosuppresseur en raison de son effet sur les récepteurs de la sphingosine-1-phosphate. A fortes doses, FTY720 présente un effet antinéoplasique. Cependant, à de telles doses, un des effets secondaires observé est la bradycardie dû à l’activation des récepteurs S1P1 et S1P3. Ceci limite son potentiel d’utilisation lors de chimiothérapie. Nos précédentes études ont montré que des analogues pyrrolidiniques dérivés du FTY720 présentaient une activité anticancéreuse mais aucune sur les récepteurs S1P1 et S1P3. Nous avons soumis l’idée qu’une étude relation structure-activité (SARs) pourrait nous conduire à la découverte de nouveaux agents anti tumoraux. Ainsi, deux séries de composés pyrrolidiniques (O-arylmethyl substitué et C-arylmethyl substitué) ont pu être envisagés et synthétisés (Chapitre 1). Ces analogues ont montré d’excellentes activités cytotoxiques contre diverses cellules cancéreuses humaines (prostate, colon, sein, pancréas et leucémie), plus particulièrement les analogues actifs qui ne peuvent pas être phosphorylés par SphK, présentent un plus grand potentiel pour le traitement du cancer sans effet secondaire comme la bradycardie. Les études mécanistiques suggèrent que ces analogues de déclencheurs de régulation négative sur les transporteurs de nutriments induisent une crise bioénergétique en affamant les cellules cancéreuses. Afin d’approfondir nos connaissances sur les récepteurs cibles, nous avons conçu et synthétisé des sondes diazirine basées sur le marquage d’affinité aux photons (méthode PAL: Photo-Affinity Labeling) (Chapitre 2). En s’appuyant sur la méthode PAL, il est possible de récolter des informations sur les récepteurs cibles à travers l’analyse LC/MS/MS de la protéine. Ces tests sont en cours et les résultats sont prometteurs. Deuxième partie: Coordination métallique et catalyse di fonctionnelle de dérivés β-hydroxy cétones tertiaires. Les réactions de Barbier et de Grignard sont des méthodes classiques pour former des liaisons carbone-carbone, et généralement utilisées pour la préparation d’alcools secondaires et tertiaires. En vue d’améliorer la réaction de Grignard avec le 1-iodobutane dans les conditions « one-pot » de Barbier, nous avons obtenu comme produit majoritaire la β-hydroxy cétone provenant de l’auto aldolisation de la 5-hexen-2-one, plutôt que le produit attendu d’addition de l’alcool (Chapitre 3). La formation inattendue de la β-hydroxy cétone a également été observée en utilisant d’autres dérivés méthyl cétone. Étonnement dans la réaction intramoléculaire d’une tricétone, connue pour former la cétone Hajos-Parrish, le produit majoritaire est rarement la β-hydroxy cétone présentant la fonction alcool en position axiale. Intrigué par ces résultats et après l’étude systématique des conditions de réaction, nous avons développé deux nouvelles méthodes à travers la synthèse sélective et catalytique de β-hydroxy cétones spécifiques par cyclisation intramoléculaire avec des rendements élevés (Chapitre 4). La réaction peut être catalysée soit par une base adaptée et du bromure de lithium comme additif en passant par un état de transition coordonné au lithium, ou bien soit à l’aide d’un catalyseur TBD di fonctionnel, via un état de transition médiée par une coordination bidenté au TBD. Les mécanismes proposés ont été corroborés par calcul DFT. Ces réactions catalytiques ont également été appliquées à d’autres substrats comme les tricétones et les dicétones. Bien que les efforts préliminaires afin d’obtenir une enantioselectivité se sont révélés sans succès, la synthèse et la recherche de nouveaux catalyseurs chiraux sont en cours.