864 resultados para Frequency Choosing
Resumo:
Pérez-Castrillo and Wettstein (2002) propose a multi-bidding mechanism to determine a winner from a set of possible projects. The winning project is implemented and its surplus is shared among the agents. In the multi-bidding mechanism each agent announces a vector of bids, one for each possible project, that are constrained to sum up to zero. In addition, each agent chooses a favorite a object which is used as a tie-breaker if several projects receive the same highest aggregate bid. Since more desirable projects receive larger bids, it is natural to consider the multi-bidding mechanism without the announcement of favorite projects. We show that the merits of the multi-bidding mechanism appear not to be robust to this natural simplification. Specifically, a Nash equilibrium exists if and only if there are at least two individually optimal projects and all individually optimal projects are efficient.
Resumo:
We study the implications of two solidarity conditions on the efficient location of a public good on a cycle, when agents have single-peaked, symmetric preferences. Both conditions require that when circumstances change, the agents not responsible for the change should all be affected in the same direction: either they all gain or they all loose. The first condition, population-monotonicity, applies to arrival or departure of one agent. The second, replacement-domination, applies to changes in the preferences of one agent. Unfortunately, no Pareto-efficient solution satisfies any of these properties. However, if agents’ preferred points are restricted to the vertices of a small regular polygon inscribed in the circle, solutions exist. We characterize them as a class of efficient priority rules.
Resumo:
Many unit root and cointegration tests require an estimate of the spectral density function at frequency zero at some process. Kernel estimators based on weighted sums of autocovariances constructed using estimated residuals from an AR(1) regression are commonly used. However, it is known that with substantially correlated errors, the OLS estimate of the AR(1) parameter is severely biased. in this paper, we first show that this least squares bias induces a significant increase in the bias and mean-squared error of kernel-based estimators.
Resumo:
Human telomeres play a major role in stabilizing chromosome ends and preventing fusions. Chromosomes bearing a broken end are rescued by the acquisition of a new telomeric cap without any subtelomeric sequences being present at the breakpoint, a process referred to as chromosome healing. Conversely, a loss of telomeric function or integrity can lead to the presence of interstitial telomeres at the junction site in translocations or ring chromosomes. In order to determine the frequency at which interstitial telomeres or chromosome healing events are observed in target chromosome abnormalities, we conducted a retrospective FISH study using pan-telomeric and chromosome-specific subtelomeric probes on archival material from 40 cases of terminal deletions, translocations or ring chromosomes. Of the 19 terminal deletions investigated, 17 were negative for the subtelomeric probe specific to the deleted arm despite being positive for the pan-telomeric probe. These 17 cases were thus considered as been rescued through chromosome healing, suggesting that this process is frequent in terminal deletions. In addition, as two of these cases were inherited from a parent bearing the same deletion, chromosomes healed by this process are thus stable through mitosis and meiosis. Regarding the 13 cases of translocations and eight ring chromosomes, four and two cases respectively demonstrated pan-telomeric sequences at the interstitial junction point. Furthermore, two cases of translocations and one ring chromosome had both interstitial pan-telomeres and subtelomeres, whereas two other cases of ring chromosomes and one case of translocation only showed interstitial subtelomeres. Therefore, interstitial (sub)telomeric sequences in translocations and ring chromosomes are more common than previously thought, as we found a frequency of 43% in this study. Moreover, our results illustrate the necessity of performing FISH with both subtelomeric and pan-telomeric probes when investigating these rearrangements, as the breakpoints can be either in the distal part of the pan-telomeres, or in between the two types of sequences.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Étude de cas / Case study
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
L’adhésion au traitement réfère à la mesure selon laquelle un patient respecte la posologie et la fréquence des prises médicamenteuses telles que prescrites par le médecin pour la durée recommandée. En dépit de nombreux traitements efficaces, la problématique de la non-adhésion demeure omniprésente en médecine, notamment dans les populations psychiatriques. Les patients aux prises avec un trouble de l’humeur ou un TDAH peuvent présenter des déficits cognitifs. Un projet de recherche mené auprès de 52 patients est présenté. Les résultats montrent une association entre les difficultés cognitives telles que perçues par les patients et l’adhésion. Des sous-domaines cognitifs comme la capacité d’inhibition, la flexibilité, la mémoire de travail, la planification et l’organisation de même que la capacité d’initier une action sont particulièrement impliqués. La capacité d’initier une tâche est corrélée avec l’adhésion et tend à la prédire. L’utilisation en clinique de méthodes d’évaluation simples et rapides de la cognition et de l’adhésion permettrait d’identifier ces difficultés. Des interventions visant à améliorer l’adhésion pourraient ainsi être offertes de façon plus ciblée. L’adaptation des interventions au profil de chaque individu est une avenue à explorer davantage pour tenter d’améliorer l’efficacité limitée de celles-ci jusqu’à maintenant.
Resumo:
La radiothérapie stéréotaxique corporelle (SBRT) est une technique couramment employée pour le traitement de tumeurs aux poumons lorsque la chirurgie n’est pas possible ou refusée par le patient. Une complication de l’utilisation de cette méthode provient du mouvement de la tumeur causé par la respiration. Dans ce contexte, la radiothérapie asservie à la respiration (RGRT) peut être bénéfique. Toutefois, la RGRT augmente le temps de traitement en raison de la plus petite proportion de temps pour laquelle le faisceau est actif. En utilisant un faisceau de photons sans filtre égalisateur (FFF), ce problème peut être compensé par le débit de dose plus élevé d’un faisceau FFF. Ce mémoire traite de la faisabilité d’employer la technique de RGRT en combinaison avec l’utilisation un faisceau FFF sur un accélérateur Synergy S (Elekta, Stockholm, Suède) avec une ceinture pneumatique, le Bellows Belt (Philips, Amsterdam, Pays-Bas), comme dispositif de suivi du signal respiratoire. Un Synergy S a été modifié afin de pouvoir livrer un faisceau 6 MV FFF. Des mesures de profils de dose et de rendements en profondeur ont été acquises en cuve à eau pour différentes tailles de champs. Ces mesures ont été utilisées pour créer un modèle du faisceau 6 MV FFF dans le système de planification de traitement Pinnacle3 de Philips. Les mesures ont été comparées au modèle à l’aide de l’analyse gamma avec un critère de 2%, 2 mm. Par la suite, cinq plans SBRT avec thérapie en arc par modulation volumétrique (VMAT) ont été créés avec le modèle 6 MV du Synergy S, avec et sans filtre. Une comparaison des paramètres dosimétriques a été réalisée entre les plans avec et sans filtre pour évaluer la qualité des plans FFF. Les résultats révèlent qu’il est possible de créer des plans SBRT VMAT avec le faisceau 6 MV FFF du Synergy S qui sont cliniquement acceptables (les crières du Radiation Therapy Oncology Group 0618 sont respectés). Aussi, une interface physique de RGRT a été mise au point pour remplir deux fonctions : lire le signal numérique de la ceinture pneumatique Bellows Belt et envoyer une commande d’irradiation binaire au linac. L’activation/désactivation du faisceau du linac se fait par l’entremise d’un relais électromécanique. L’interface comprend un circuit électronique imprimé fait maison qui fonctionne en tandem avec un Raspberry Pi. Un logiciel de RGRT a été développé pour opérer sur le Raspberry Pi. Celui-ci affiche le signal numérique du Bellows Belt et donne l’option de choisir les limites supérieure et inférieure de la fenêtre d’irradiation, de sorte que lorsque le signal de la ceinture se trouve entre ces limites, le faisceau est actif, et inversement lorsque le signal est hors de ces limites. Le logiciel envoie donc une commande d’irradiation au linac de manière automatique en fonction de l’amplitude du signal respiratoire. Finalement, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un autre plan standard sans RGRT sans filtre démontre que le temps de traitement en mode FFF est réduit en moyenne de 54.1% pour un arc. De la même manière, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un plan de RGRT (fenêtre d’irradiation de 75%) sans filtre montre que le temps de traitement de RGRT en mode FFF est réduit en moyenne de 27.3% par arc. Toutefois, il n’a pas été possible de livrer des traitements de RGRT avec une fenêtre de moins de 75%. Le linac ne supporte pas une fréquence d’arrêts élevée.
Resumo:
European Union Series
Inference for nonparametric high-frequency estimators with an application to time variation in betas
Resumo:
We consider the problem of conducting inference on nonparametric high-frequency estimators without knowing their asymptotic variances. We prove that a multivariate subsampling method achieves this goal under general conditions that were not previously available in the literature. We suggest a procedure for a data-driven choice of the bandwidth parameters. Our simulation study indicates that the subsampling method is much more robust than the plug-in method based on the asymptotic expression for the variance. Importantly, the subsampling method reliably estimates the variability of the Two Scale estimator even when its parameters are chosen to minimize the finite sample Mean Squared Error; in contrast, the plugin estimator substantially underestimates the sampling uncertainty. By construction, the subsampling method delivers estimates of the variance-covariance matrices that are always positive semi-definite. We use the subsampling method to study the dynamics of financial betas of six stocks on the NYSE. We document significant variation in betas within year 2006, and find that tick data captures more variation in betas than the data sampled at moderate frequencies such as every five or twenty minutes. To capture this variation we estimate a simple dynamic model for betas. The variance estimation is also important for the correction of the errors-in-variables bias in such models. We find that the bias corrections are substantial, and that betas are more persistent than the naive estimators would lead one to believe.
Resumo:
The increasing interest in the interaction of light with electricity and electronically active materials made the materials and techniques for producing semitransparent electrically conducting films particularly attractive. Transparent conductors have found major applications in a number of electronic and optoelectronic devices including resistors, transparent heating elements, antistatic and electromagnetic shield coatings, transparent electrode for solar cells, antireflection coatings, heat reflecting mirrors in glass windows and many other. Tin doped indium oxide (indium tin oxide or ITO) is one of the most commonly used transparent conducting oxides. At present and likely well into the future this material offers best available performance in terms of conductivity and transmittivity combined with excellent environmental stability, reproducibility and good surface morphology. Although partial transparency, with a reduction in conductivity, can be obtained for very thin metallic films, high transparency and simultaneously high conductivity cannot be attained in intrinsic stoichiometric materials. The only way this can be achieved is by creating electron degeneracy in a wide bandgap (Eg > 3eV or more for visible radiation) material by controllably introducing non-stoichiometry and/or appropriate dopants. These conditions can be conveniently met for ITO as well as a number of other materials like Zinc oxide, Cadmium oxide etc. ITO shows interesting and technologically important combination of properties viz high luminous transmittance, high IR reflectance, good electrical conductivity, excellent substrate adherence and chemical inertness. ITO is a key part of solar cells, window coatings, energy efficient buildings, and flat panel displays. In solar cells, ITO can be the transparent, conducting top layer that lets light into the cell to shine the junction and lets electricity flow out. Improving the ITO layer can help improve the solar cell efficiency. A transparent ii conducting oxide is a material with high transparency in a derived part of the spectrum and high electrical conductivity. Beyond these key properties of transparent conducting oxides (TCOs), ITO has a number of other key characteristics. The structure of ITO can be amorphous, crystalline, or mixed, depending on the deposition temperature and atmosphere. The electro-optical properties are a function of the crystallinity of the material. In general, ITO deposited at room temperature is amorphous, and ITO deposited at higher temperatures is crystalline. Depositing at high temperatures is more expensive than at room temperature, and this method may not be compatible with the underlying devices. The main objective of this thesis work is to optimise the growth conditions of Indium tin oxide thin films at low processing temperatures. The films are prepared by radio frequency magnetron sputtering under various deposition conditions. The films are also deposited on to flexible substrates by employing bias sputtering technique. The films thus grown were characterised using different tools. A powder x-ray diffractometer was used to analyse the crystalline nature of the films. The energy dispersive x-ray analysis (EDX) and scanning electron microscopy (SEM) were used for evaluating the composition and morphology of the films. Optical properties were investigated using the UVVIS- NIR spectrophotometer by recording the transmission/absorption spectra. The electrical properties were studied using vander Pauw four probe technique. The plasma generated during the sputtering of the ITO target was analysed using Langmuir probe and optical emission spectral studies.