892 resultados para IN-VARIABLES MODELS
Resumo:
A novel technique for selecting the poles of orthonormal basis functions (OBF) in Volterra models of any order is presented. It is well-known that the usual large number of parameters required to describe the Volterra kernels can be significantly reduced by representing each kernel using an appropriate basis of orthonormal functions. Such a representation results in the so-called OBF Volterra model, which has a Wiener structure consisting of a linear dynamic generated by the orthonormal basis followed by a nonlinear static mapping given by the Volterra polynomial series. Aiming at optimizing the poles that fully parameterize the orthonormal bases, the exact gradients of the outputs of the orthonormal filters with respect to their poles are computed analytically by using a back-propagation-through-time technique. The expressions relative to the Kautz basis and to generalized orthonormal bases of functions (GOBF) are addressed; the ones related to the Laguerre basis follow straightforwardly as a particular case. The main innovation here is that the dynamic nature of the OBF filters is fully considered in the gradient computations. These gradients provide exact search directions for optimizing the poles of a given orthonormal basis. Such search directions can, in turn, be used as part of an optimization procedure to locate the minimum of a cost-function that takes into account the error of estimation of the system output. The Levenberg-Marquardt algorithm is adopted here as the optimization procedure. Unlike previous related work, the proposed approach relies solely on input-output data measured from the system to be modeled, i.e., no information about the Volterra kernels is required. Examples are presented to illustrate the application of this approach to the modeling of dynamic systems, including a real magnetic levitation system with nonlinear oscillatory behavior.
Resumo:
Skew-normal distribution is a class of distributions that includes the normal distributions as a special case. In this paper, we explore the use of Markov Chain Monte Carlo (MCMC) methods to develop a Bayesian analysis in a multivariate, null intercept, measurement error model [R. Aoki, H. Bolfarine, J.A. Achcar, and D. Leao Pinto Jr, Bayesian analysis of a multivariate null intercept error-in -variables regression model, J. Biopharm. Stat. 13(4) (2003b), pp. 763-771] where the unobserved value of the covariate (latent variable) follows a skew-normal distribution. The results and methods are applied to a real dental clinical trial presented in [A. Hadgu and G. Koch, Application of generalized estimating equations to a dental randomized clinical trial, J. Biopharm. Stat. 9 (1999), pp. 161-178].
Resumo:
Topological interactions will be generated in theories with compact extra dimensions where fermionic chiral zero modes have different localizations. This is the case in many warped extra dimension models where the right-handed top quark is typically localized away from the left-handed one. Using deconstruction techniques, we study the topological interactions in these models. These interactions appear as trilinear and quadrilinear gauge boson couplings in low energy effective theories with three or more sites, as well as in the continuum limit. We derive the form of these interactions for various cases, including examples of Abelian, non-Abelian and product gauge groups of phenomenological interest. The topological interactions provide a window into the more fundamental aspects of these theories and could result in unique signatures at the Large Hadron Collider, some of which we explore.
Resumo:
This work presents a Bayesian semiparametric approach for dealing with regression models where the covariate is measured with error. Given that (1) the error normality assumption is very restrictive, and (2) assuming a specific elliptical distribution for errors (Student-t for example), may be somewhat presumptuous; there is need for more flexible methods, in terms of assuming only symmetry of errors (admitting unknown kurtosis). In this sense, the main advantage of this extended Bayesian approach is the possibility of considering generalizations of the elliptical family of models by using Dirichlet process priors in dependent and independent situations. Conditional posterior distributions are implemented, allowing the use of Markov Chain Monte Carlo (MCMC), to generate the posterior distributions. An interesting result shown is that the Dirichlet process prior is not updated in the case of the dependent elliptical model. Furthermore, an analysis of a real data set is reported to illustrate the usefulness of our approach, in dealing with outliers. Finally, semiparametric proposed models and parametric normal model are compared, graphically with the posterior distribution density of the coefficients. (C) 2009 Elsevier Inc. All rights reserved.
Resumo:
We analyse the finite-sample behaviour of two second-order bias-corrected alternatives to the maximum-likelihood estimator of the parameters in a multivariate normal regression model with general parametrization proposed by Patriota and Lemonte [A. G. Patriota and A. J. Lemonte, Bias correction in a multivariate regression model with genereal parameterization, Stat. Prob. Lett. 79 (2009), pp. 1655-1662]. The two finite-sample corrections we consider are the conventional second-order bias-corrected estimator and the bootstrap bias correction. We present the numerical results comparing the performance of these estimators. Our results reveal that analytical bias correction outperforms numerical bias corrections obtained from bootstrapping schemes.
Resumo:
In this paper we discuss bias-corrected estimators for the regression and the dispersion parameters in an extended class of dispersion models (Jorgensen, 1997b). This class extends the regular dispersion models by letting the dispersion parameter vary throughout the observations, and contains the dispersion models as particular case. General formulae for the O(n(-1)) bias are obtained explicitly in dispersion models with dispersion covariates, which generalize previous results obtained by Botter and Cordeiro (1998), Cordeiro and McCullagh (1991), Cordeiro and Vasconcellos (1999), and Paula (1992). The practical use of the formulae is that we can derive closed-form expressions for the O(n(-1)) biases of the maximum likelihood estimators of the regression and dispersion parameters when the information matrix has a closed-form. Various expressions for the O(n(-1)) biases are given for special models. The formulae have advantages for numerical purposes because they require only a supplementary weighted linear regression. We also compare these bias-corrected estimators with two different estimators which are also bias-free to order O(n(-1)) that are based on bootstrap methods. These estimators are compared by simulation. (C) 2011 Elsevier B.V. All rights reserved.
Resumo:
Mitochondria contain their own genome, a small circular molecule of around 16.5 kbases. The mitochondrial DNA (mtDNA) encodes for only 13 polypeptides, but its integrity is essential for mitochondrial function, as all 13 proteins are regulatory subunits of the oxidative phosphorylation complexes. Nonetheless, the mtDNA is physically associated with the inner mitochondrial membrane, where the majority of the cellular reactive oxygen species are generated. In fact, the mitochondrial DNA accumulates high levels of oxidized lesions, which have been associated with several pathological and degenerative processes. The cellular responses to nuclear DNA damage have been extensively studied, but so far little is known about the functional outcome and cellular responses to mtDNA damage. In this review we will discuss the mechanisms that lead to damage accumulation and the in vitro models we are establishing to dissect the cellular responses to oxidative damage in the mtDNA and to sort out the differential cellular consequences of accumulation of damage in each cellular genome, the nuclear and the mitochondrial genome.
Resumo:
AIMS/HYPOTHESIS: Soluble tumor necrosis factor receptors 1 and 2 (sTNFR1 and sTNFR2) contribute to experimental diabetic kidney disease, a condition with substantially increased cardiovascular risk when present in patients. Therefore, we aimed to explore the levels of sTNFRs, and their association with prevalent kidney disease, incident cardiovascular disease, and risk of mortality independently of baseline kidney function and microalbuminuria in a cohort of patients with type 2 diabetes. In pre-defined secondary analyses we also investigated whether the sTNFRs predict adverse outcome in the absence of diabetic kidney disease. METHODS: The CARDIPP study, a cohort study of 607 diabetes patients [mean age 61 years, 44 % women, 45 cardiovascular events (fatal/non-fatal myocardial infarction or stroke) and 44 deaths during follow-up (mean 7.6 years)] was used. RESULTS: Higher sTNFR1 and sTNFR2 were associated with higher odds of prevalent kidney disease [odd ratio (OR) per standard deviation (SD) increase 1.60, 95 % confidence interval (CI) 1.32-1.93, p < 0.001 and OR 1.54, 95 % CI 1.21-1.97, p = 0.001, respectively]. In Cox regression models adjusting for age, sex, glomerular filtration rate and urinary albumin/creatinine ratio, higher sTNFR1 and sTNFR2 predicted incident cardiovascular events [hazard ratio (HR) per SD increase, 1.66, 95 % CI 1.29-2.174, p < 0.001 and HR 1.47, 95 % CI 1.13-1.91, p = 0.004, respectively]. Results were similar in separate models with adjustments for inflammatory markers, HbA1c, or established cardiovascular risk factors, or when participants with diabetic kidney disease at baseline were excluded (p < 0.01 for all). Both sTNFRs were associated with mortality. CONCLUSIONS/INTERPRETATIONS: Higher circulating sTNFR1 and sTNFR2 are associated with diabetic kidney disease, and predicts incident cardiovascular disease and mortality independently of microalbuminuria and kidney function, even in those without kidney disease. Our findings support the clinical utility of sTNFRs as prognostic markers in type 2 diabetes.
Resumo:
This article highlights the potential benefits that the Kohonen method has for the classification of rivers with similar characteristics by determining regional ecological flows using the ELOHA (Ecological Limits of Hydrologic Alteration) methodology. Currently, there are many methodologies for the classification of rivers, however none of them include the characteristics found in Kohonen method such as (i) providing the number of groups that actually underlie the information presented, (ii) used to make variable importance analysis, (iii) which in any case can display two-dimensional classification process, and (iv) that regardless of the parameters used in the model the clustering structure remains. In order to evaluate the potential benefits of the Kohonen method, 174 flow stations distributed along the great river basin “Magdalena-Cauca” (Colombia) were analyzed. 73 variables were obtained for the classification process in each case. Six trials were done using different combinations of variables and the results were validated against reference classification obtained by Ingfocol in 2010, whose results were also framed using ELOHA guidelines. In the process of validation it was found that two of the tested models reproduced a level higher than 80% of the reference classification with the first trial, meaning that more than 80% of the flow stations analyzed in both models formed invariant groups of streams.
Resumo:
In this study, we verify the existence of predictability in the Brazilian equity market. Unlike other studies in the same sense, which evaluate original series for each stock, we evaluate synthetic series created on the basis of linear models of stocks. Following Burgess (1999), we use the “stepwise regression” model for the formation of models of each stock. We then use the variance ratio profile together with a Monte Carlo simulation for the selection of models with potential predictability. Unlike Burgess (1999), we carry out White’s Reality Check (2000) in order to verify the existence of positive returns for the period outside the sample. We use the strategies proposed by Sullivan, Timmermann & White (1999) and Hsu & Kuan (2005) amounting to 26,410 simulated strategies. Finally, using the bootstrap methodology, with 1,000 simulations, we find strong evidence of predictability in the models, including transaction costs.
Resumo:
O grau de liberdade da política monetária é uma questão muito relevante em um país que decide adotar um regime de metas inflacionárias e câmbio flutuante. Caso a autoridade monetária desse país não tenha liberdade para atuar, o regime de metas pode ser ineficiente. Em especial, caso esse país se encontre numa situação de Dominância Fiscal, a política monetária pode ter efeitos perversos sobre a relação dívida/PIB, aumentando seu prêmio de risco soberano e causando um aumento na probabilidade de default implícita em seus títulos soberanos. O intuito desse trabalho é realizar o teste de dominância a partir de um modelo proposto por Olivier Blanchard em 2004, e testar primeiro se o país se encontrava em dominância em 2002, 2003 e depois analisar o resultado desse modelo até novembro de 2005. Algumas modificações de variáveis utilizadas, medidas de risco e taxa de juros são propostas e é acrescido ao modelo um teste de estabilidade de coeficientes e a incerteza causada no período eleitoral em 2002. Além disso, é analisada a reação do Banco Central no período, para identificar se sua reação compartilhava da visão de dominância que o modelo original apresentava ou não. A conclusão é que o Brasil, mesmo após as alterações sugeridas, ainda se encontra numa situação de dominância fiscal segundo a descrição do modelo. Porém, o resultado final é cerca de 20% do originalmente observado em 2004, resultando em uma liberdade de atuação significativamente maior para a autoridade monetária no Brasil em 2002 e 2003. O Banco Central parece ter reagido a mudanças de expectativa de inflação e não parecia compartilhar um diagnóstico de dominância fiscal ao longo de 2002. As eleições foram significativas para explicar aumento da probabilidade de default, mas não alteram significativamente o resultado do teste após as mudanças de variáveis. A medida de risco proposta resulta em um modelo melhor para medir dominância no Brasil. A mensagem final é que o Brasil ainda precisa se preocupar com as restrições fiscais, mas elas são menores que o modelo original propunha.
Resumo:
This paper demonstrates that the applied monetary models - the Sidrauski-type models and the cash-in-advance models, augmented with a banking sector that supplies money substitutes services - imply trajectories which are Pareto-Optimum restricted to a given path of the real quantity of money. As a consequence, three results follow: First, Bailey’s formula to evaluate the welfare cost of inflation is indeed accurate, if the longrun capital stock does not depend on the inflation rate and if the compensate demand is considered. Second, the relevant money demand concept for this issue - the impact of inflation on welfare - is the monetary base. Third, if the long-run capital stock depends on the inflation rate, this dependence has a second-order impact on welfare, and, conceptually, it is not a distortion from the social point of view. These three implications moderate some evaluations of the welfare cost of the perfect predicted inflation.
Resumo:
Neste estudo são analisados, através de técnicas de dados em painel, os fatores determinantes dos níveis de ativos líquidos de empresas abertas do Brasil, Argentina, Chile, México e Peru no período de 1995 a 2009. O índice utilizado nas modelagens é denominado de ativo líquido (ou simplesmente caixa), o qual inclui os recursos disponíveis em caixa e as aplicações financeiras de curto prazo, divididos pelo total de ativos da firma. É possível identificar uma tendência crescente de acúmulo de ativos líquidos como proporção do total de ativos ao longo dos anos em praticamente todos os países. São encontradas evidências de que empresas com maiores oportunidades de crescimento, maior tamanho (medido pelo total de ativos), maior nível de pagamento de dividendos e maior nível de lucratividade, acumulam mais caixa na maior parte dos países analisados. Da mesma forma, empresas com maiores níveis de investimento em ativo imobilizado, maior geração de caixa, maior volatilidade do fluxo de caixa, maior alavancagem e maior nível de capital de giro, apresentam menor nível de acúmulo de ativos líquidos. São identificadas semelhanças de fatores determinantes de liquidez em relação a estudos empíricos com empresas de países desenvolvidos, bem como diferenças devido a fenômenos particulares de países emergentes, como por exemplo elevadas taxas de juros internas, diferentes graus de acessibilidade ao mercado de crédito internacional e a linhas de crédito de agências de fomento, equity kicking, entre outros. Em teste para a base de dados das maiores firmas do Brasil, é identificada a presença de níveis-alvo de caixa através de modelo auto-regressivo de primeira ordem (AR1). Variáveis presentes em estudos mais recentes com empresas de países desenvolvidos como aquisições, abertura recente de capital e nível de governança corporativa também são testadas para a base de dados do Brasil.
Resumo:
O presente trabalho investigou o valor de uma floresta nativa no bioma Mata Atlântica. Para isso, utilizou-se da metodologia de custo de reposição. Além disso, buscou-se explicitar os principais fatores determinantes desse valor, bem como seus impactos. Foram formuladas quatro hipóteses de pesquisa, a saber, i) o nível de degradação da área não influencia o custo total de reposição da floresta nativa; ii) relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa; iii) a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa; e iv) a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Para chegar aos resultados foram realizados testes simples de diferença de médias para as variáveis qualitativas. Os resultados encontrados foram de que pode-se rejeitar a hipótese de que relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa. No entanto, não se rejeitam as hipóteses de que a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa e de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Após essa primeira aproximação, é realizada uma série de regressões, utilizando o modelo clássico de mínimos quadrados ordinários (MQO). Fez-se uma análise de sensibilidade dos resultados obtidos. O levantamento de dados foi obtido por meio da realização de uma pesquisa (questionário) a uma série de entidades do setor. Foram testadas as quatro hipóteses. De acordo com os testes realizados, pode-se dizer que a hipótese 2 sobre o impacto de um relevo mais acidentado das áreas a serem restauradas no custo total de reposição da floresta nativa se mostrou não significativa em todos os modelos. No entanto, a hipótese 1 do impacto do nível de degradação sobre o valor do projeto foi rejeitada em todos os modelos. A hipótese 3 do impacto da localização da área em relação ao centro urbano sobre o valor do projeto foi rejeitada em dois modelos e a hipótese 4 de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa foi rejeitada em um modelo. Chegou-se ao resultado de R$22 mil/hectare para o custo de reposição de uma floresta nativa do bioma Mata Atlântica. Esse tipo de estudo foi contextualizado no desenvolvimento feito pela economia ambiental ao longo do tempo, ressaltando suas principais características. Nas conclusões destaca-se os principais pontos do trabalho e são discutidas uma série de implicações teóricas e gerenciais do presente estudo, bem como apresentadas sugestões para novos estudos nessa área.
Resumo:
This paper demonstrates that the applied monetary mo deIs - the Sidrauski-type models and the cash-in-advance models, augmented with a banking sector that supplies money substitutes services - imply trajectories which are P8,reto-Optimum restricted to a given path of the real quantity of money. As a consequence, three results follow: First, Bailey's formula to evaluate the wclfare cost of inflation is indeed accurate, if the long-run capital stock does not depend on the inflation rate and if the compensate demand is considered. Second, the relevant money demand concept for this issue - the impact of inflation on welfare - is the monetary base, Third, if the long-run capital stock depends on the inflation rate, this dependence has a second-order impact ou wclfare, and, conceptually, it is not a distortion from tite social point of vicw. These three implications moderatc some evaluations of the wclfare cost of the perfect predicted inflation.