915 resultados para Block bootstrap
Resumo:
Block bootstrap has been introduced in the literature for resampling dependent data, i.e. stationary processes. One of the main assumptions in block bootstrapping is that the blocks of observations are exchangeable, i.e. their joint distribution is immune to permutations. In this paper we propose a new Bayesian approach to block bootstrapping, starting from the construction of exchangeable blocks. Our sampling mechanism is based on a particular class of reinforced urn processes
Resumo:
Presently, conditions ensuring the validity of bootstrap methods for the sample mean of (possibly heterogeneous) near epoch dependent (NED) functions of mixing processes are unknown. Here we establish the validity of the bootstrap in this context, extending the applicability of bootstrap methods to a class of processes broadly relevant for applications in economics and finance. Our results apply to two block bootstrap methods: the moving blocks bootstrap of Künsch ( 989) and Liu and Singh ( 992), and the stationary bootstrap of Politis and Romano ( 994). In particular, the consistency of the bootstrap variance estimator for the sample mean is shown to be robust against heteroskedasticity and dependence of unknown form. The first order asymptotic validity of the bootstrap approximation to the actual distribution of the sample mean is also established in this heterogeneous NED context.
Resumo:
Condence intervals in econometric time series regressions suffer fromnotorious coverage problems. This is especially true when the dependencein the data is noticeable and sample sizes are small to moderate, as isoften the case in empirical studies. This paper suggests using thestudentized block bootstrap and discusses practical issues, such as thechoice of the block size. A particular data-dependent method is proposedto automate the method. As a side note, it is pointed out that symmetricconfidence intervals are preferred over equal-tailed ones, since theyexhibit improved coverage accuracy. The improvements in small sampleperformance are supported by a simulation study.
Resumo:
The aim of this paper is to quantitatively characterize the climatology of daily precipitation indices in Catalonia (northeastern Iberian Peninsula) from 1951 to 2003. This work has been performed analyzing a subset of the ETCCDI (Expert Team on Climate Change Detection and Indices) precipitation indices calculated from a new interpolated dataset of daily precipitation, namely SPAIN02, regular at 0.2° horizontal resolution (around 20 km) and from two high-quality stations: the Ebro and Fabra observatories. Using a jack-knife technique, we have found that the sampling error of the SPAIN02 regional averaged is relatively low. The trend analysis has been implemented using a Circular Block Bootstrap procedure applicable to non-normal distributions and autocorrelated series. A running trend analysis has been applied to analyze the trend persistence. No general trends at a regional scale are observed, considering the annual or the seasonal regional averaged series of all the indices for all the time windows considered. Only the consecutive dry days index (CDD) at annual scale shows a locally coherent spatial trend pattern; around 30% of the Catalonia area has experienced an increase of around 2¿3 days decade¿1. The Ebro and Fabra observatories show a similar CDD trend, mainly due to the summer contribution. Besides this, a significant decrease in total precipitation (around ¿10 mm decade¿1) and in the index "highest precipitation amount in five-day period" (RX5DAY, around ¿5 mm decade¿1), have been found in summer for the Ebro observatory.
Resumo:
Suite à un stage avec la compagnie Hatch, nous possédons des jeux de données composés de séries chronologiques de vitesses de vent mesurées à divers sites dans le monde, sur plusieurs années. Les ingénieurs éoliens de la compagnie Hatch utilisent ces jeux de données conjointement aux banques de données d’Environnement Canada pour évaluer le potentiel éolien afin de savoir s’il vaut la peine d’installer des éoliennes à ces endroits. Depuis quelques années, des compagnies offrent des simulations méso-échelle de vitesses de vent, basées sur divers indices environnementaux de l’endroit à évaluer. Les ingénieurs éoliens veulent savoir s’il vaut la peine de payer pour ces données simulées, donc si celles-ci peuvent être utiles lors de l’estimation de la production d’énergie éolienne et si elles pourraient être utilisées lors de la prévision de la vitesse du vent long terme. De plus, comme l’on possède des données mesurées de vitesses de vent, l’on en profitera pour tester à partir de diverses méthodes statistiques différentes étapes de l’estimation de la production d’énergie. L’on verra les méthodes d’extrapolation de la vitesse du vent à la hauteur d’une turbine éolienne et l’on évaluera ces méthodes à l’aide de l’erreur quadratique moyenne. Aussi, on étudiera la modélisation de la vitesse du vent par la distributionWeibull et la variation de la distribution de la vitesse dans le temps. Finalement, l’on verra à partir de la validation croisée et du bootstrap si l’utilisation de données méso-échelle est préférable à celle de données des stations de référence, en plus de tester un modèle où les deux types de données sont utilisées pour prédire la vitesse du vent. Nous testerons la méthodologie globale présentement utilisée par les ingénieurs éoliens pour l’estimation de la production d’énergie d’un point de vue statistique, puis tenterons de proposer des changements à cette méthodologie, qui pourraient améliorer l’estimation de la production d’énergie annuelle.
Resumo:
La studio dell’efficienza di un indice azionario ha accresciuto la propria importanza nell’industria dell’asset management a seguito della diffusione dell’utilizzo di benchmark e investimenti indicizzati. Il presente lavoro valuta il livello di efficienza dei principali indici del mercato azionario statunitense, dell’Area Euro e italiano. Lo studio empirico ricorre a quattro misure di efficienza: il GRS, un test small-sample multivariato fondato sul CAPM; il test large sample di Wald, implementato tramite una simulazione bootstrap; il test GMM, che è stato applicato in una cornice non-gaussiana attraverso una simulazione block bootstrap; la misura di efficienza relativa di Kandel e Stambaugh. I risultati empirici forniscono una prova evidente della superiore efficienza degli indici equiponderati. Questa conclusione è interpretata sulla base della letteratura scientifica esistente, analizzando le diverse cause di ordine teorico ed empirico che sono state proposte.
Resumo:
In the first chapter, we test some stochastic volatility models using options on the S&P 500 index. First, we demonstrate the presence of a short time-scale, on the order of days, and a long time-scale, on the order of months, in the S&P 500 volatility process using the empirical structure function, or variogram. This result is consistent with findings of previous studies. The main contribution of our paper is to estimate the two time-scales in the volatility process simultaneously by using nonlinear weighted least-squares technique. To test the statistical significance of the rates of mean-reversion, we bootstrap pairs of residuals using the circular block bootstrap of Politis and Romano (1992). We choose the block-length according to the automatic procedure of Politis and White (2004). After that, we calculate a first-order correction to the Black-Scholes prices using three different first-order corrections: (i) a fast time scale correction; (ii) a slow time scale correction; and (iii) a multiscale (fast and slow) correction. To test the ability of our model to price options, we simulate options prices using five different specifications for the rates or mean-reversion. We did not find any evidence that these asymptotic models perform better, in terms of RMSE, than the Black-Scholes model. In the second chapter, we use Brazilian data to compute monthly idiosyncratic moments (expected skewness, realized skewness, and realized volatility) for equity returns and assess whether they are informative for the cross-section of future stock returns. Since there is evidence that lagged skewness alone does not adequately forecast skewness, we estimate a cross-sectional model of expected skewness that uses additional predictive variables. Then, we sort stocks each month according to their idiosyncratic moments, forming quintile portfolios. We find a negative relationship between higher idiosyncratic moments and next-month stock returns. The trading strategy that sells stocks in the top quintile of expected skewness and buys stocks in the bottom quintile generates a significant monthly return of about 120 basis points. Our results are robust across sample periods, portfolio weightings, and to Fama and French (1993)’s risk adjustment factors. Finally, we identify a return reversal of stocks with high idiosyncratic skewness. Specifically, stocks with high idiosyncratic skewness have high contemporaneous returns. That tends to reverse, resulting in negative abnormal returns in the following month.
Resumo:
We use data from about 700 GPS stations in the EuroMediterranen region to investigate the present-day behavior of the the Calabrian subduction zone within the Mediterranean-scale plates kinematics and to perform local scale studies about the strain accumulation on active structures. We focus attenction on the Messina Straits and Crati Valley faults where GPS data show extentional velocity gradients of ∼3 mm/yr and ∼2 mm/yr, respectively. We use dislocation model and a non-linear constrained optimization algorithm to invert for fault geometric parameters and slip-rates and evaluate the associated uncertainties adopting a bootstrap approach. Our analysis suggest the presence of two partially locked normal faults. To investigate the impact of elastic strain contributes from other nearby active faults onto the observed velocity gradient we use a block modeling approach. Our models show that the inferred slip-rates on the two analyzed structures are strongly impacted by the assumed locking width of the Calabrian subduction thrust. In order to frame the observed local deformation features within the present- day central Mediterranean kinematics we realyze a statistical analysis testing the indipendent motion (w.r.t. the African and Eurasias plates) of the Adriatic, Cal- abrian and Sicilian blocks. Our preferred model confirms a microplate like behaviour for all the investigated blocks. Within these kinematic boundary conditions we fur- ther investigate the Calabrian Slab interface geometry using a combined approach of block modeling and χ2ν statistic. Almost no information is obtained using only the horizontal GPS velocities that prove to be a not sufficient dataset for a multi-parametric inversion approach. Trying to stronger constrain the slab geometry we estimate the predicted vertical velocities performing suites of forward models of elastic dislocations varying the fault locking depth. Comparison with the observed field suggest a maximum resolved locking depth of 25 km.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Isosorbide succinate moieties were incorporated into poly(L-lactide) (PLLA) backbone in order to obtain a new class of biodegradable polymer with enhanced properties. This paper describes the synthesis and characterization of four types of low molecular weight copolymers. Copolymer I was obtained from monomer mixtures of L-lactide, isosorbide, and succinic anhydride; II from oligo(L-lactide) (PLLA), isosorbide, and succinic anhydride; III from oligo(isosorbide succinate) (PIS) and L-lactide; and IV from transesterification reactions between PLLA and PIS. MALDI-TOFMS and 13C-NMR analyses gave evidence that co-oligomerization was successfully attained in all cases. The data suggested that the product I is a random co-oligomer and the products II-IV are block co-oligomers.
Resumo:
Some factors complicate comparisons between linkage maps from different studies. This problem can be resolved if measures of precision, such as confidence intervals and frequency distributions, are associated with markers. We examined the precision of distances and ordering of microsatellite markers in the consensus linkage maps of chromosomes 1, 3 and 4 from two F 2 reciprocal Brazilian chicken populations, using bootstrap sampling. Single and consensus maps were constructed. The consensus map was compared with the International Consensus Linkage Map and with the whole genome sequence. Some loci showed segregation distortion and missing data, but this did not affect the analyses negatively. Several inversions and position shifts were detected, based on 95% confidence intervals and frequency distributions of loci. Some discrepancies in distances between loci and in ordering were due to chance, whereas others could be attributed to other effects, including reciprocal crosses, sampling error of the founder animals from the two populations, F(2) population structure, number of and distance between microsatellite markers, number of informative meioses, loci segregation patterns, and sex. In the Brazilian consensus GGA1, locus LEI1038 was in a position closer to the true genome sequence than in the International Consensus Map, whereas for GGA3 and GGA4, no such differences were found. Extending these analyses to the remaining chromosomes should facilitate comparisons and the integration of several available genetic maps, allowing meta-analyses for map construction and quantitative trait loci (QTL) mapping. The precision of the estimates of QTL positions and their effects would be increased with such information.
Resumo:
We calculate the entanglement entropy of blocks of size x embedded in a larger system of size L, by means of a combination of analytical and numerical techniques. The complete entanglement entropy in this case is a sum of three terms. One is a universal x- and L-dependent term, first predicted by Calabrese and Cardy, the second is a nonuniversal term arising from the thermodynamic limit, and the third is a finite size correction. We give an explicit expression for the second, nonuniversal, term for the one-dimensional Hubbard model, and numerically assess the importance of all three contributions by comparing to the entropy obtained from fully numerical diagonalization of the many-body Hamiltonian. We find that finite-size corrections are very small. The universal Calabrese-Cardy term is equally small for small blocks, but becomes larger for x > 1. In all investigated situations, however, the by far dominating contribution is the nonuniversal term stemming from the thermodynamic limit.
Resumo:
A series of new phenyl-based conjugated copolymers has been synthesized and investigated by vibrational and photoluminescence spectroscopy (PL). The materials are: poly( 1,4-phenylene-alt-3,6-pyridazine) (COP-PIR), poly(9,9-dioctylfluorene)-co-quaterphenylene (COP-PPP) and poly[(1,4-phenylene-alt-3,6-pyridazine)-co-(1,4-phenylene-alt-9,9-dioctylfluorene)] (COP-PIR-FLUOR), with 3.5% of fluorene. COP-PPP and COP-PIR-FLUOR have high fluorescence quantum yields in solution. Infrared and Raman spectra were used to check the chemical structure of the compounds. The copolymers exhibit blue emission ranging front 2.8 to 3.6 eV when excited at E(exc)=4.13 eV. Stokes-shift Values were estimated on pristine samples in their condensed state from steady-state PL-emission and PL-excitation spectra. They suggest a difference in the torsional angle between the molecular configuration of the polymer blocks at the absorption and PL transitions and also in the photoexcitation diffusion. Additionally, the time-resolved PL of these materials has been investigated by using 100 fs laser pulses at E(exc)=4.64 eV and a streak camera. Results show very fast biexponential kinetics for the two fluorene-based polymers with decay times below 300 ps indicating both intramolecular, fast radiative recombination and migration of photogenerated electron-hole pairs. By contrast, the PL of COP-PIR is less intense and longer lived, indicating that excitons are confined to the chains in this polymer. (C) 2008 Elsevier B.V. All rights reserved.
Resumo:
In this work, the rheological behavior of block copolymers with different morphologies (lamellar, cylindrical, spherical, and disordered) and their clay-containing nanocomposites was studied using small amplitude oscillatory shear. The copolymers studied were one asymmetric starblock styrene-butadiene-styrene copolymer and four styrene-ethylene/butylenes-styrene copolymers with different molecular architectures, one of them being modified with maleic anhydride. The nanocomposites of those copolymers were prepared by adding organophilic clay using three different preparation techniques: melt mixing, solution casting, and a hybrid melt mixing-solution technique. The nanocomposites were characterized by X-ray diffraction and transmission electron microscopy, and their viscoelastic properties were evaluated and compared to the ones of the pure copolymers. The influence of copolymer morphology and presence of clay on the storage modulus (G`) curves was studied by the evaluation of the changes in the low frequency slope of log G` x log omega (omega: frequency) curves upon variation of temperature and clay addition. This slope may be related to the degree of liquid- or solid-like behavior of a material. It was observed that at temperatures corresponding to the ordered state, the rheological behavior of the nanocomposites depended mainly on the viscoelasticity of each type of ordered phase and the variation of the slope due to the addition of clay was small. For temperatures corresponding to the disordered state, however, the rheological behavior of the copolymer nanocomposites was dictated mostly by the degree of clay dispersion: When the clay was well dispersed, a strong solid-like behavior corresponding to large G` slope variations was observed.