873 resultados para Tail-approximation
Resumo:
In this work project we study the tail properties of currency returns and analyze whether changes in the tail indices of these series have occurred over time as a consequence of turbulent periods. Our analysis is based on the methods introduced by Quintos, Fan and Phillips (2001), Candelon and Straetmans (2006, 2013), and their extensions. Specifically, considering a sample of daily data from December 31, 1993 to February 13, 2015 we apply the recursive test in calendar time (forward test) and in reverse calendar time (backward test) and indeed detect falls and rises in the tail indices, signifying increases and decreases in the probability of extreme events.
Resumo:
Expressions for the anharmonic Helmholtz free energy contributions up to o( f ) ,valid for all temperatures, have been obtained using perturbation theory for a c r ystal in which every atom is on a site of inversion symmetry. Numerical calculations have been carried out in the high temperature limit and in the non-leading term approximation for a monatomic facecentred cubic crystal with nearest neighbour c entralforce interactions. The numbers obtained were seen to vary by a s much as 47% from thos e obtai.ned in the leading term approximati.on,indicating that the latter approximati on is not in general very good. The convergence to oct) of the perturbation series in the high temperature limit appears satisfactory.
Resumo:
Several stresses to tissues including hyperthermia, ischemia, mechanical trauma and heavy metals have been demonstrated to affect the regulation of a subset of the family of heat shock proteins of70kOa (hsp70). In several organisms following some of these traumas, the levels of hsp70 mRNA and proteins are dramatically upregulated. However, the effects of the stress on limb and tail amputation in the newt Notophthalmus viridescens, involving mechanical tissue damage, have not adequately been examined. In the present study, three techniques were utilized to quantitate the levels of hsp70 mRNA and protein in the tissues of the forelimbs and tails of newts during the early post-traumatic events following surgical resection of these:: appendages. These included quantitative Western blotting of proteins separated by both one and twodimensional SDS-polyacrylamide gel electrophoresis and quantitative Northern blot analysis of total RNA. In tissues of both the limb and tail one hour after amputation, there were no significant differences in the levels of hsp70 protein measured by one-dimensional SOSPAGE followed by Western blotting, when compared to the levels measured in the unamputated limb. A 30 minute heat shock at 35°C failed to elicit an increase in the levels of hsp70 protein in these tissues. Further analysis using the more sensitive 20 PAGE separation of stump tissue proteins revealed that at least some of the five hsp70 isoforms of the newt may be differentially regulated in limbs and tails in response to trauma. It appears also that amputation of the tail and limb tissues leads to slight 3 elevation in the levels of HSP70 mRNA when compared to those of their respective unstressed tissues.
Resumo:
The newt, Notopthalmus viridescens is one of the few tet rapod vertebrates capable of extensive regeneration of the central nervous system, however, the factors involved in this process are still unknown. Chemokine signalling through the receptor CXCR4, has been found to be involved in the development of the central nervous system of mammals and more recently in epimorphic fin regeneration in zebrafish. We have hypothesized that the CXCR4 signalling pathway is involved in spinal cord and tail regeneration in the adul t newt , possibly as a downstream target of retinoic acid signalling. We found that CXCR4 mRNA expression was observed in the brain, spinal cord, heart, gut, liver and regenerating tail blastemas. CXCR4 expression increased over the f i rst 12 days of tail regeneration and returned to basal expression levels at day 21 of regeneration. Inhibition of CXCR4 wi th AMD3100, a specific receptor antagonist, led to a decrease in CXCR4 mRNA in the regenerating tail 14 days post amputation. Histological analysis suggests a delay in the early stages of tail and spinal cord regeneration. Spinal cord explants t reated wi th CXCL12, the ligand to CXCR4, displayed enhanced neurite outgrowth in vitro. Explants t reated wi th AMD3100 abolished any retinoic acid enhanced neurite outgrowth effects suggesting a link between these signalling pathways.
Resumo:
Port Dalhousie and Thorold Railway estimate of work done to date with an approximation of probable damage sustained by suspending the track, Aug. 22, 1854.
Resumo:
This note investigates the adequacy of the finite-sample approximation provided by the Functional Central Limit Theorem (FCLT) when the errors are allowed to be dependent. We compare the distribution of the scaled partial sums of some data with the distribution of the Wiener process to which it converges. Our setup is purposely very simple in that it considers data generated from an ARMA(1,1) process. Yet, this is sufficient to bring out interesting conclusions about the particular elements which cause the approximations to be inadequate in even quite large sample sizes.
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Généralement, dans les situations d’hypothèses multiples on cherche à rejeter toutes les hypothèses ou bien une seule d’entre d’elles. Depuis quelques temps on voit apparaître le besoin de répondre à la question : « Peut-on rejeter au moins r hypothèses ? ». Toutefois, les outils statisques pour répondre à cette question sont rares dans la littérature. Nous avons donc entrepris de développer les formules générales de puissance pour les procédures les plus utilisées, soit celles de Bonferroni, de Hochberg et de Holm. Nous avons développé un package R pour le calcul de la taille échantilonnalle pour les tests à hypothèses multiples (multiple endpoints), où l’on désire qu’au moins r des m hypothèses soient significatives. Nous nous limitons au cas où toutes les variables sont continues et nous présentons quatre situations différentes qui dépendent de la structure de la matrice de variance-covariance des données.
Resumo:
Étant donnée une fonction bornée (supérieurement ou inférieurement) $f:\mathbb{N}^k \To \Real$ par une expression mathématique, le problème de trouver les points extrémaux de $f$ sur chaque ensemble fini $S \subset \mathbb{N}^k$ est bien défini du point de vu classique. Du point de vue de la théorie de la calculabilité néanmoins il faut éviter les cas pathologiques où ce problème a une complexité de Kolmogorov infinie. La principale restriction consiste à définir l'ordre, parce que la comparaison entre les nombres réels n'est pas décidable. On résout ce problème grâce à une structure qui contient deux algorithmes, un algorithme d'analyse réelle récursive pour évaluer la fonction-coût en arithmétique à précision infinie et un autre algorithme qui transforme chaque valeur de cette fonction en un vecteur d'un espace, qui en général est de dimension infinie. On développe trois cas particuliers de cette structure, un de eux correspondant à la méthode d'approximation de Rauzy. Finalement, on établit une comparaison entre les meilleures approximations diophantiennes simultanées obtenues par la méthode de Rauzy (selon l'interprétation donnée ici) et une autre méthode, appelée tétraédrique, que l'on introduit à partir de l'espace vectoriel engendré par les logarithmes de nombres premiers.