13 resultados para Angular frequency
em Université de Montréal, Canada
Resumo:
This note develops general model-free adjustment procedures for the calculation of unbiased volatility loss functions based on practically feasible realized volatility benchmarks. The procedures, which exploit the recent asymptotic distributional results in Barndorff-Nielsen and Shephard (2002a), are both easy to implement and highly accurate in empirically realistic situations. On properly accounting for the measurement errors in the volatility forecast evaluations reported in Andersen, Bollerslev, Diebold and Labys (2003), the adjustments result in markedly higher estimates for the true degree of return-volatility predictability.
Resumo:
Many unit root and cointegration tests require an estimate of the spectral density function at frequency zero at some process. Kernel estimators based on weighted sums of autocovariances constructed using estimated residuals from an AR(1) regression are commonly used. However, it is known that with substantially correlated errors, the OLS estimate of the AR(1) parameter is severely biased. in this paper, we first show that this least squares bias induces a significant increase in the bias and mean-squared error of kernel-based estimators.
Resumo:
Human telomeres play a major role in stabilizing chromosome ends and preventing fusions. Chromosomes bearing a broken end are rescued by the acquisition of a new telomeric cap without any subtelomeric sequences being present at the breakpoint, a process referred to as chromosome healing. Conversely, a loss of telomeric function or integrity can lead to the presence of interstitial telomeres at the junction site in translocations or ring chromosomes. In order to determine the frequency at which interstitial telomeres or chromosome healing events are observed in target chromosome abnormalities, we conducted a retrospective FISH study using pan-telomeric and chromosome-specific subtelomeric probes on archival material from 40 cases of terminal deletions, translocations or ring chromosomes. Of the 19 terminal deletions investigated, 17 were negative for the subtelomeric probe specific to the deleted arm despite being positive for the pan-telomeric probe. These 17 cases were thus considered as been rescued through chromosome healing, suggesting that this process is frequent in terminal deletions. In addition, as two of these cases were inherited from a parent bearing the same deletion, chromosomes healed by this process are thus stable through mitosis and meiosis. Regarding the 13 cases of translocations and eight ring chromosomes, four and two cases respectively demonstrated pan-telomeric sequences at the interstitial junction point. Furthermore, two cases of translocations and one ring chromosome had both interstitial pan-telomeres and subtelomeres, whereas two other cases of ring chromosomes and one case of translocation only showed interstitial subtelomeres. Therefore, interstitial (sub)telomeric sequences in translocations and ring chromosomes are more common than previously thought, as we found a frequency of 43% in this study. Moreover, our results illustrate the necessity of performing FISH with both subtelomeric and pan-telomeric probes when investigating these rearrangements, as the breakpoints can be either in the distal part of the pan-telomeres, or in between the two types of sequences.
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.
Resumo:
Pour la plupart des gens, la lecture est une activité automatique, inhérente à leur vie quotidienne et ne demandant que peu d’effort. Chez les individus souffrant d’épilepsie réflexe à la lecture, le simple fait de lire déclenche des crises épileptiques et les personnes doivent alors renoncer à la lecture. Les facteurs responsables du déclenchement de l’activité épileptique dans l’épilepsie réflexe à la lecture demeurent encore mal définis. Certains auteurs suggèrent que le nombre ainsi que la localisation des pointes épileptiques seraient en lien avec la voie de lecture impliquée. Des études en imagerie cérébrale, menées auprès de populations sans trouble neurologique, ont dévoilé que la lecture active un réseau étendu incluant les cortex frontaux, temporo-pariétaux et occipito-temporaux bilatéralement avec des différences dans les patrons d’activation pour les voies de lecture lexicale et phonologique. La majorité des études ont eu recours à des tâches de lecture silencieuse qui ne permettent pas d'évaluer la performance des participants. Dans la première étude de cette thèse, qui porte sur une étude de cas d'un patient avec épilepsie réflexe à la lecture, nous avons déterminé les tâches langagières et les caractéristiques des stimuli qui influencent l'activité épileptique. Les résultats ont confirmé que la lecture était la principale tâche responsable du déclenchement de l’activité épileptique chez ce patient. En particulier, la fréquence des pointes épileptiques était significativement plus élevée lorsque le patient avait recours au processus de conversion grapho-phonémique. Les enregistrements électroencéphalographiques (EEG) ont révélé que les pointes épileptiques étaient localisées dans le gyrus précentral gauche, indépendamment de la voie de lecture. La seconde étude avait comme objectif de valider un protocole de lecture à voix haute ayant recours à la spectroscopie près du spectre de l’infrarouge (SPIR) pour investiguer les circuits neuronaux qui sous-tendent la lecture chez les normo-lecteurs. Douze participants neurologiquement sains ont lu à voix haute des mots irréguliers et des non-mots lors d’enregistrements en SPIR. Les résultats ont montré que la lecture des deux types de stimuli impliquait des régions cérébrales bilatérales communes incluant le gyrus frontal inférieur, le gyrus prémoteur et moteur, le cortex somatosensoriel associatif, le gyrus temporal moyen et supérieur, le gyrus supramarginal, le gyrus angulaire et le cortex visuel. Les concentrations totales d’hémoglobine (HbT) dans les gyri frontaux inférieurs bilatéraux étaient plus élevées dans la lecture des non-mots que dans celle des mots irréguliers. Ce résultat suggère que le gyrus frontal inférieur joue un rôle dans la conversion grapho-phonémique, qui caractérise la voie de lecture phonologique. Cette étude a confirmé le potentiel de la SPIR pour l’investigation des corrélats neuronaux des deux voies de lecture. Une des retombées importantes de cette thèse consiste en l’utilisation du protocole de lecture en SPIR pour investiguer les troubles de la lecture. Ces investigations pourraient aider à mieux établir les liens entre le fonctionnement cérébral et la lecture dans les dyslexies développementales et acquises.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Introduction: Les stratégies d’optimisation de la performance chez les athlètes sont de plus en plus exploitées par les entraîneurs et préparateurs physiques. La potentialisation de post- activation (PAP) est reconnue comme étant un phénomène pouvant mener à une augmentation des performances. L’objectif de la présente étude était de donc décrire les effets d’une pré-sollicitation à la hanche sur la coordination inter-musculaire et la performance au cours d’un exercice épuisant. Méthodes: Six athlètes de patins de vitesse de courte piste (3 de sexe masculin et 3 de sexe féminin; âge: 20.2 ± 2.8 ans; moyenne±écart-type) ont exécuté aléatoirement un exercice qui consistait en 2 séries de 9 blocs de squats sautés maximaux, entre-coupés d’un squat isométrique d’une durée de 5 secondes sans pré-sollicitation préalable (CON) et avec une tâche de pré-sollicitation unilatérale de squat isométrique (EXP) contre une barre fixe de 2x3 secondes. Le pic de puissance moyen, l’amplitude et la fréquence moyenne d’EMG, et la vitesse et l’accélération angulaires des premiers et derniers blocs étaient enregistrés. Résultats: La pré-sollicitation isométrique maximale des membres inférieurs n’a pas amélioré de manière significative la performance de sauts et la coordination des muscles stabilisateurs à la hanche. La fréquence spectrale moyenne a néanmoins témoigné de l’implication de stratégies compensatoires du membre inférieur gauche en réponse à la fatigue. Conclusion: La pré-sollicitation des stabilisateurs à la hanche n’augmenterait pas la performance de squats répétés. Par contre, la fréquence moyenne du grand fessier et du tibial antérieur gauche ont suggéré meilleure résistance à la fatigue des muscles du membre inférieur non-dominant avec une pré-sollicitation. Les résultats de la présente étude indiquent donc la pertinence de considérer la pré-sollicitation dans un objectif de performance et de réadaptation sachant que l’asymétrie est omniprésente chez les athlètes et qu’elle est impliquée dans le taux élevé de blessures enregistré chez cette population.
Inference for nonparametric high-frequency estimators with an application to time variation in betas
Resumo:
We consider the problem of conducting inference on nonparametric high-frequency estimators without knowing their asymptotic variances. We prove that a multivariate subsampling method achieves this goal under general conditions that were not previously available in the literature. We suggest a procedure for a data-driven choice of the bandwidth parameters. Our simulation study indicates that the subsampling method is much more robust than the plug-in method based on the asymptotic expression for the variance. Importantly, the subsampling method reliably estimates the variability of the Two Scale estimator even when its parameters are chosen to minimize the finite sample Mean Squared Error; in contrast, the plugin estimator substantially underestimates the sampling uncertainty. By construction, the subsampling method delivers estimates of the variance-covariance matrices that are always positive semi-definite. We use the subsampling method to study the dynamics of financial betas of six stocks on the NYSE. We document significant variation in betas within year 2006, and find that tick data captures more variation in betas than the data sampled at moderate frequencies such as every five or twenty minutes. To capture this variation we estimate a simple dynamic model for betas. The variance estimation is also important for the correction of the errors-in-variables bias in such models. We find that the bias corrections are substantial, and that betas are more persistent than the naive estimators would lead one to believe.