982 resultados para Estimação da curva de juros com cupom zero
Resumo:
A ministração a coelhos, pela via digestiva, de leite fresco - crú ou fervido, e de leite fermentado, quer naturalmente, quer artificialmente, pela proliferação de bacilos coli ou aerogenes, não influe na curva de peso de maneira bastante apreciavel. A maior perda de peso, observada num coelho que ingeria leite fresco, não fervido, poude ser attribuida a modificações da flora do intestino e suas consequencias sobre o organismo do animal. Estes resultados estão de accôrdo com observações feitas durante o preparo de sôros immunisantes anti-coli em coelhos, aos quaes propinavamos quantidades consideraveis de corpos bacterianos, sem que lhes occorresse perda significativa de peso.
Resumo:
The purpose of this short note is to prove that a stable separable C*-algebra with real rank zero has the so-called corona factorization property, that is, all the full multiplier projections are properly in finite. Enroute to our result, we consider conditions under which a real rank zero C*-algebra admits an injection of the compact operators (a question already considered in [21]).
Resumo:
A dieta alimentar teve influência marcante na bionomia de Dipetalogaster maximus. Os registros obtidos, são resultantes de observações diárias durante dez meses em relação à postura e à mortalidade dos adultos. Utilizaram-se dois grupos de dez casais da mesma idade (A e B), alimentados semanalmente em sangue de camundongos normais e dois grupos de dez casais (C e D) que nas mesmas condições se alimentaram em sangue de pombo. Todos os grupos mantidos em estufa B.O.D a 28ºC e 65% ± 2,5% U.R, condições consideradas adequadas ao seu desenvolvimento. No grupo A registraram-se 101 posturas com total de 1.018 ovos; em B observaram-se 118 posturas, totalizando 1.318 ovos. Nos grupos alimentados em pombo observou-se produtividade inferior: 70 posturas em C, com 398 ovos e 66 posturas em D com 495 ovos. Não foram observadas diferenças significativas na curva de motalidade das fêmeas.
Resumo:
This paper develops stochastic search variable selection (SSVS) for zero-inflated count models which are commonly used in health economics. This allows for either model averaging or model selection in situations with many potential regressors. The proposed techniques are applied to a data set from Germany considering the demand for health care. A package for the free statistical software environment R is provided.
Resumo:
Els objectius són avaluar la seguretat, resultats i l’impacte en els costs d’un programa de rehabilitació multimodal en cirurgia colorrectal, així com estudiar la influència de la experiència de l’equip en el seu compliment i resultats. Estudi prospectiu de cohorts consecutives. La rehabilitació multimodal no augmenta la morbilitat ni la mortalitat. A més a més disminueix l’estada a l’hospital en 3 dies sense incrementar els reingressos. També s’associa a una disminució dels costs totals de 912 euros per pacient. El compliment del protocol millora amb l’experiència de l’equip multidisciplinari, accelerant la recuperació dels pacients i conseqüentment l’alta precoç.
Resumo:
El propòsit d'aquest TFC és presentar una metodologia lleugera per a aplicar en aquesta anomenada
Resumo:
The application of compositional data analysis through log ratio trans-formations corresponds to a multinomial logit model for the shares themselves.This model is characterized by the property of Independence of Irrelevant Alter-natives (IIA). IIA states that the odds ratio in this case the ratio of shares is invariant to the addition or deletion of outcomes to the problem. It is exactlythis invariance of the ratio that underlies the commonly used zero replacementprocedure in compositional data analysis. In this paper we investigate using thenested logit model that does not embody IIA and an associated zero replacementprocedure and compare its performance with that of the more usual approach ofusing the multinomial logit model. Our comparisons exploit a data set that com-bines voting data by electoral division with corresponding census data for eachdivision for the 2001 Federal election in Australia
Resumo:
This paper focus on the problem of locating single-phase faults in mixed distribution electric systems, with overhead lines and underground cables, using voltage and current measurements at the sending-end and sequence model of the network. Since calculating series impedance for underground cables is not as simple as in the case of overhead lines, the paper proposes a methodology to obtain an estimation of zero-sequence impedance of underground cables starting from previous single-faults occurred in the system, in which an electric arc occurred at the fault location. For this reason, the signal is previously pretreated to eliminate its peaks voltage and the analysis can be done working with a signal as close as a sinus wave as possible
Resumo:
The log-ratio methodology makes available powerful tools for analyzing compositionaldata. Nevertheless, the use of this methodology is only possible for those data setswithout null values. Consequently, in those data sets where the zeros are present, aprevious treatment becomes necessary. Last advances in the treatment of compositionalzeros have been centered especially in the zeros of structural nature and in the roundedzeros. These tools do not contemplate the particular case of count compositional datasets with null values. In this work we deal with \count zeros" and we introduce atreatment based on a mixed Bayesian-multiplicative estimation. We use the Dirichletprobability distribution as a prior and we estimate the posterior probabilities. Then weapply a multiplicative modi¯cation for the non-zero values. We present a case studywhere this new methodology is applied.Key words: count data, multiplicative replacement, composition, log-ratio analysis
Resumo:
One of the tantalising remaining problems in compositional data analysis lies in how to deal with data sets in which there are components which are essential zeros. By anessential zero we mean a component which is truly zero, not something recorded as zero simply because the experimental design or the measuring instrument has not been sufficiently sensitive to detect a trace of the part. Such essential zeros occur inmany compositional situations, such as household budget patterns, time budgets,palaeontological zonation studies, ecological abundance studies. Devices such as nonzero replacement and amalgamation are almost invariably ad hoc and unsuccessful insuch situations. From consideration of such examples it seems sensible to build up amodel in two stages, the first determining where the zeros will occur and the secondhow the unit available is distributed among the non-zero parts. In this paper we suggest two such models, an independent binomial conditional logistic normal model and a hierarchical dependent binomial conditional logistic normal model. The compositional data in such modelling consist of an incidence matrix and a conditional compositional matrix. Interesting statistical problems arise, such as the question of estimability of parameters, the nature of the computational process for the estimation of both the incidence and compositional parameters caused by the complexity of the subcompositional structure, the formation of meaningful hypotheses, and the devising of suitable testing methodology within a lattice of such essential zero-compositional hypotheses. The methodology is illustrated by application to both simulated and real compositional data
Resumo:
Neste trabalho, discute-se a fixação de taxas de retorno de concessões no Brasil, com aplicação específica ao caso da metodologia da Agência Nacional de Transportes Terrestres (ANTT). Mostra-se a inadequação da regulamentação vigente, baseada no conceito de taxa interna de retorno (TIR), e não de custo de oportunidade do capital. A partir de um exemplo com dados referentes ao auge da crise financeira internacional (dezembro de 2008), evidencia-se também a falta de lógica decorrente da utilização de retornos e preços passados na estimação de taxas de retorno, um procedimento comum a toda a área de concessões de serviços públicos no Brasil. Propõe-se uma metodologia alternativa cujos resultados são sensíveis às condições correntes de mercado de capitais, que produz resultados coerentes com a situação então vigente.
Resumo:
Neste trabalho, teve-se como objetivo identificar o impacto do risco de liquidez nos retornos excedentes esperados das debêntures no mercado secundário brasileiro. Foram realizadas análises de regressão em painel desbalanceado com dados semestrais de 101 debêntures ao longo de oito semestres (primeiro semestre de 2006 ao segundo semestre de 2009), totalizando 382 observações. Sete proxies (spread de compra e venda, %zero returns, idade, volume de emissão, valor nominal de emissão, quantidade emitida e %tempo) foram utilizadas para testar o impacto do risco de liquidez nos yield spreads das debêntures. O yield spread foi controlado por até dez outras variáveis determinantes que não a liquidez (fator de juros, fator de crédito, taxa livre de risco, rating, duration, quatro variáveis contábeis e volatilidade de equity). A hipótese nula de que não há prêmio de liquidez para o mercado secundário de debêntures no Brasil foi rejeitada apenas para três das sete proxies (spread de compra e venda, valor nominal de emissão e quantidade emitida). Os prêmios encontrados são bastante baixos (1,9 basis point para cada 100 basis point de incremento no spread de compra e venda, 0,5 basis point para um aumento de 1% no valor do valor nominal de emissão e 0,17 basis point para cada menos 1.000 debêntures emitidas). De qualquer forma, houve perda na eficiência das proxies de liquidez após correção das autocorrelações e potenciais endogeneidades, seja por meio da inclusão de efeitos fixos, da análise de primeiras diferenças ou da utilização de um sistema de três equações. Esses resultados apontam para a suspeita de que o risco de liquidez não é um fator importante na composição das expectativas dos investidores no mercado secundário de debêntures.
Resumo:
There is almost not a case in exploration geology, where the studied data doesn’tincludes below detection limits and/or zero values, and since most of the geological dataresponds to lognormal distributions, these “zero data” represent a mathematicalchallenge for the interpretation.We need to start by recognizing that there are zero values in geology. For example theamount of quartz in a foyaite (nepheline syenite) is zero, since quartz cannot co-existswith nepheline. Another common essential zero is a North azimuth, however we canalways change that zero for the value of 360°. These are known as “Essential zeros”, butwhat can we do with “Rounded zeros” that are the result of below the detection limit ofthe equipment?Amalgamation, e.g. adding Na2O and K2O, as total alkalis is a solution, but sometimeswe need to differentiate between a sodic and a potassic alteration. Pre-classification intogroups requires a good knowledge of the distribution of the data and the geochemicalcharacteristics of the groups which is not always available. Considering the zero valuesequal to the limit of detection of the used equipment will generate spuriousdistributions, especially in ternary diagrams. Same situation will occur if we replace thezero values by a small amount using non-parametric or parametric techniques(imputation).The method that we are proposing takes into consideration the well known relationshipsbetween some elements. For example, in copper porphyry deposits, there is always agood direct correlation between the copper values and the molybdenum ones, but whilecopper will always be above the limit of detection, many of the molybdenum values willbe “rounded zeros”. So, we will take the lower quartile of the real molybdenum valuesand establish a regression equation with copper, and then we will estimate the“rounded” zero values of molybdenum by their corresponding copper values.The method could be applied to any type of data, provided we establish first theircorrelation dependency.One of the main advantages of this method is that we do not obtain a fixed value for the“rounded zeros”, but one that depends on the value of the other variable.Key words: compositional data analysis, treatment of zeros, essential zeros, roundedzeros, correlation dependency
Resumo:
L'objectiu d'aquest projecte és dissenyar un sistema per a mesurar en temps real l'acceleració en les tres dimensions basat en un circuit integrat que proporciona senyals d'acceleració. Per a fer-ho, s'ha realitzat un estudi del senyal sensor d'acceleració MXD2125G i s'ha implementat el tractament d'aquest senyal en un microcontrolador MCF5213.
Resumo:
Neste trabalho abordamos o problema da estimação da média de uma variável aleatória que depende de outra (ou outras) através de um modelo de regressão. O conhecimento completo da amostra permite o tratamento deste problema utilizando os métodos clássicos para a estimação da regressão. Aqui iremos estudar uma solução para o problema quando parte da informação que compõe a amostra se perde, nomeadamente, quando, na amostra que permite o tratamento do problema de regressão, algumas das ordenadas não são conhecidas, mas sim apenas o valor para variável explicativa. A solução mais simples neste caso consistiria em ignorar os pontos correspondentes da amostra. Contudo, aqui, pretende-se estudar um método que tenta tirar partido do conhecimento de que houve uma observação e que o valor desta está relacionado com a abcissa disponível através de um modelo de regressão que será aproximado à custa dos pontos da amostra conhecidos na totalidade. Numa primeira instância introduzimos os métodos não paramétricos de aproximação da regressão, a explorar, regressograma e Nadaraya- Watson. Em capítulos posteriores, descrevemos a adaptação do estimador Nadaraya-Watson ao problema das amostras incompletas. Discutemse ainda adaptações que tentam minimizar as dificuldades deste estimador quando o espaço das abcissas é de dimensão grande, assumindo que parte da função de regressão tem um comportamento linear, portanto paramétrico. Neste trabalho apresentamos resultados que asseguram a normalidade assimptótica dos estimadores definidos.