13 resultados para Operational frequency
em Université de Montréal, Canada
Resumo:
Several Authors Have Discussed Recently the Limited Dependent Variable Regression Model with Serial Correlation Between Residuals. the Pseudo-Maximum Likelihood Estimators Obtained by Ignoring Serial Correlation Altogether, Have Been Shown to Be Consistent. We Present Alternative Pseudo-Maximum Likelihood Estimators Which Are Obtained by Ignoring Serial Correlation Only Selectively. Monte Carlo Experiments on a Model with First Order Serial Correlation Suggest That Our Alternative Estimators Have Substantially Lower Mean-Squared Errors in Medium Size and Small Samples, Especially When the Serial Correlation Coefficient Is High. the Same Experiments Also Suggest That the True Level of the Confidence Intervals Established with Our Estimators by Assuming Asymptotic Normality, Is Somewhat Lower Than the Intended Level. Although the Paper Focuses on Models with Only First Order Serial Correlation, the Generalization of the Proposed Approach to Serial Correlation of Higher Order Is Also Discussed Briefly.
Resumo:
This note develops general model-free adjustment procedures for the calculation of unbiased volatility loss functions based on practically feasible realized volatility benchmarks. The procedures, which exploit the recent asymptotic distributional results in Barndorff-Nielsen and Shephard (2002a), are both easy to implement and highly accurate in empirically realistic situations. On properly accounting for the measurement errors in the volatility forecast evaluations reported in Andersen, Bollerslev, Diebold and Labys (2003), the adjustments result in markedly higher estimates for the true degree of return-volatility predictability.
Resumo:
Many unit root and cointegration tests require an estimate of the spectral density function at frequency zero at some process. Kernel estimators based on weighted sums of autocovariances constructed using estimated residuals from an AR(1) regression are commonly used. However, it is known that with substantially correlated errors, the OLS estimate of the AR(1) parameter is severely biased. in this paper, we first show that this least squares bias induces a significant increase in the bias and mean-squared error of kernel-based estimators.
Resumo:
Human telomeres play a major role in stabilizing chromosome ends and preventing fusions. Chromosomes bearing a broken end are rescued by the acquisition of a new telomeric cap without any subtelomeric sequences being present at the breakpoint, a process referred to as chromosome healing. Conversely, a loss of telomeric function or integrity can lead to the presence of interstitial telomeres at the junction site in translocations or ring chromosomes. In order to determine the frequency at which interstitial telomeres or chromosome healing events are observed in target chromosome abnormalities, we conducted a retrospective FISH study using pan-telomeric and chromosome-specific subtelomeric probes on archival material from 40 cases of terminal deletions, translocations or ring chromosomes. Of the 19 terminal deletions investigated, 17 were negative for the subtelomeric probe specific to the deleted arm despite being positive for the pan-telomeric probe. These 17 cases were thus considered as been rescued through chromosome healing, suggesting that this process is frequent in terminal deletions. In addition, as two of these cases were inherited from a parent bearing the same deletion, chromosomes healed by this process are thus stable through mitosis and meiosis. Regarding the 13 cases of translocations and eight ring chromosomes, four and two cases respectively demonstrated pan-telomeric sequences at the interstitial junction point. Furthermore, two cases of translocations and one ring chromosome had both interstitial pan-telomeres and subtelomeres, whereas two other cases of ring chromosomes and one case of translocation only showed interstitial subtelomeres. Therefore, interstitial (sub)telomeric sequences in translocations and ring chromosomes are more common than previously thought, as we found a frequency of 43% in this study. Moreover, our results illustrate the necessity of performing FISH with both subtelomeric and pan-telomeric probes when investigating these rearrangements, as the breakpoints can be either in the distal part of the pan-telomeres, or in between the two types of sequences.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Cette étude empirique que nous avons appliquée à l’ingénierie-conseil, vise principalement deux objectifs ; (1) la validation des relations entre certaines caractéristiques des clients des services de ressources humaines et leur niveau de satisfaction face à ces services et (2) l’étude des relations entre les compétences des professionnels RH et le niveau de satisfaction des clients. Nous avons retenu un cadre théorique qui est constitué principalement de l’approche des constituantes multiples. Notre modèle d’analyse suppose que la satisfaction des groupes-clients d’un SRH est influencée par onze facteurs. De ces facteurs, cinq reflètent les caractéristiques des clients ; 1-l’engagement, 2-le sexe, 3-l’âge, 4-l’ancienneté et 5-la fréquence des contacts. Les six autres facteurs représentent les compétences des professionnels en ressources humaines ; 1-expert en ressources humaines, 2-allié de l’organisation, 3-gestion de la culture et du changement, 4-architecte stratégique, 5-gestion de talent et 6-activiste crédible. Pour les fins de notre recherche, nous retenons une approche quantitative et qualitative. Les résultats des analyses bivariées ne confirment pas nos hypothèses. Par contre, l’ancienneté et l’âge des clients semblent avoir une relation négative avec la satisfaction des clients. Quant à l’analyse de contenu des entrevues effectuées auprès des professionnels ressources humaines d’une organisation, elle permet de faire ressortir les liens entre la satisfaction et cinq compétences. Celles-ci sont l’expert en ressources humaines, l’allié de l’organisation, la gestion de la culture et du changement, la gestion du talent et l’activiste crédible. Ainsi, cinq propositions sont supportées.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
L’objectif de ce mémoire est de proposer une analyse descriptive et explicative des bifurcations scolaires. Si plusieurs chercheurs ont noté la fréquence élevée des réorientations au cours des études postsecondaires au Québec, aucun d’entre eux ne s’est intéressé aux réorientations scolaires radicales et imprévisibles, qui peuvent être désignées par le terme de bifurcation. En s’appuyant principalement sur l’analyse d’une série d’entretiens auprès d’individus ayant vécu une réorientation scolaire au cours de leurs études supérieures, cette recherche explore les faces objectives et subjectives de ces réorientations, les différentes étapes traversées au cours du processus de réorientation, les différentes ressources mobilisées par les étudiants afin de faciliter sa réalisation, ainsi que les différentes raisons pour lesquelles les étudiants bifurquent. L’analyse descriptive montre le rôle décisif de la souplesse de fonctionnement et des ressources des institutions d’enseignement postsecondaire, tandis qu’elle tend à minorer le rôle joué par l’entourage des étudiants, et particulièrement de leurs parents. L’analyse explicative fait apparaitre deux modèles distincts de bifurcation: le modèle de la rectification, dans lequel les étudiants se réorientent vers un programme qui correspond davantage à leurs valeurs; et celui de la rétroaction, dans lequel ils se réorientent vers un domaine pour lequel ils avaient déjà de l’intérêt. In fine, ce mémoire conduit à marquer une distinction entre bifurcation et réorientation stratégique, et à nuancer l’utilisation des critères de radicalité et d’imprévisibilité pour définir les bifurcations scolaires dans la mesure où des conciliations ou des retours sur des centres d’intérêt antérieurs sont souvent possibles.
Resumo:
Le but de la recherche est d’étudier les tensions éthiques que peuvent vivre les médecins militaires, qui doivent agir à la fois comme soignants, militaires (même s’ils sont non combattants) et parfois comme acteurs humanitaires. Parmi la littérature sur l’éthique de la médecine militaire, les dilemmes la concernant sont souvent présentés comme le fruit de pressions réelles ou perçues provenant de l’institution militaire, des règles, codes, lois ou de politiques, ceci afin de détourner le médecin de son but premier, soit l’intérêt du patient. Pour mieux comprendre les défis éthiques auxquels sont confrontés les médecins militaires canadiens et comment ceux-ci les traitent, la recherche utilise une approche de bioéthique empirique. À partir d’une analyse de la littérature, nous examinons les dilemmes éthiques des médecins militaires, le concept de profession, ainsi que les codes d’éthique (médicaux et militaires) canadiens. L’expérience éthique est ensuite explorée à partir d’entrevues semi-directives effectuées auprès de quatorze médecins militaires ayant participé à des missions opérationnelles, notamment à Kandahar en Afghanistan, entre 2006 et 2010. Les résultats, tant conceptuels qu’empiriques, nous indiquent que plusieurs nuances s’imposent. Tout d’abord, les médecins militaires canadiens ne vivent pas les dilemmes tels qu’ils sont présentés dans la littérature, ni en nombre ni en fréquence. Ils sont conscients qu’ils doivent à la fois tenir compte de l’intérêt du patient et du bien commun, mais n’en ressentent pas pour autant un sentiment de double loyauté professionnelle. De plus, ils ont l’impression de partager l’objectif de la mission qui est de maintenir la force de combat. Des distinctions s’imposent aussi entre les médecins eux-mêmes, dans la conception qu’ils se font de leur profession, ainsi que dans les contextes (opération ou garnison), selon le type de travail qu’ils exercent (généraliste ou spécialiste). Les principaux défis éthiques rapportés portent sur les inégalités de soins entre les soldats de la coalition et les victimes locales (soldats et civils), ainsi que sur le manque de ressources, engendrant des décisions cliniques éprouvantes. Un résultat étonnant des entrevues est la présence de deux groupes distincts au plan de l’identification professionnelle. Huit médecins militaires se considèrent avant tout comme médecin, alors que les six autres ne sont pas arrivés à accorder une priorité à l’une ou l’autre des professions. Ces deux groupes se différencient également sur d’autres plans, comme le nombre et le type de défis éthiques identifiés, ainsi que les mécanismes de résolution des dilemmes utilisés. Malgré les formations éthiques offertes par l’institution, des lacunes subsistent dans la capacité d’identification des expériences éthiques et des valeurs impliquées, de même que des mécanismes de résolution utilisés. Compte tenu du faible échantillonnage, ces résultats sont difficilement généralisables. Néanmoins, ils peuvent nous inspirer au niveau théorique en faisant ressortir le caractère multidimensionnel de la médecine militaire, ainsi qu’au niveau pratique en nous permettant de suggérer des éléments de formation facilitant la réflexion éthique des médecins militaires.
Inference for nonparametric high-frequency estimators with an application to time variation in betas
Resumo:
We consider the problem of conducting inference on nonparametric high-frequency estimators without knowing their asymptotic variances. We prove that a multivariate subsampling method achieves this goal under general conditions that were not previously available in the literature. We suggest a procedure for a data-driven choice of the bandwidth parameters. Our simulation study indicates that the subsampling method is much more robust than the plug-in method based on the asymptotic expression for the variance. Importantly, the subsampling method reliably estimates the variability of the Two Scale estimator even when its parameters are chosen to minimize the finite sample Mean Squared Error; in contrast, the plugin estimator substantially underestimates the sampling uncertainty. By construction, the subsampling method delivers estimates of the variance-covariance matrices that are always positive semi-definite. We use the subsampling method to study the dynamics of financial betas of six stocks on the NYSE. We document significant variation in betas within year 2006, and find that tick data captures more variation in betas than the data sampled at moderate frequencies such as every five or twenty minutes. To capture this variation we estimate a simple dynamic model for betas. The variance estimation is also important for the correction of the errors-in-variables bias in such models. We find that the bias corrections are substantial, and that betas are more persistent than the naive estimators would lead one to believe.