1000 resultados para aplicação de insumos a taxa variada
Resumo:
Nesse trabalho desenvolvemos uma estratégia para o apreçamento de opções de recompra Embutidas . Esse tipo específico de opção está presente em um grande número de debêntures no mercado brasileiro. Em função deste mercado apresentar um número reduzido de ativos, o apreçamento destas opções se faz necessário para que tenhamos condições de ampliar a massa de ativos disponíveis para a análise. Como passo intermediário, é preciso determinar quando é interessante para o emissor efetuar o resgate antecipado da debênture. Para este m, propomos uma metodologia para a estimação da estrutura a termo da taxa de juros do mercado de debêntures com base no modelo de Nelson-Siegel.
Resumo:
Muitas teorias de finanças implicam em relações monotônicas nos retornos esperados em função de variáveis financeiras, tais como a hipótese de preferência por liquidez e o Capital Asset Pricing Model (CAPM). No entanto, estudos empíricos que testam este tipo de relação não são muitos explorados, principalmente no mercado brasileiro. A contribuição científica neste trabalho é utilizar ativos domésticos e verificar se no mercado nacional estas implicações monotônicas das teorias de finanças são sustentadas empiricamente. Fizemos uma revisão dos testes presentes na literatura para verificar a monotonicidade: os testes t, Bonferroni utilizado por Fama (1984), Wolak (1989) e o teste MR, de Patton e Timmermann (2010). Utilizamos a técnica de bootstrap e incluímos na análise dos resultados os testes “Up” e “Down”. No teste para verificar a hipótese de preferência por liquidez foram utilizadas as séries da taxa referencial de swaps DI pré-fixada para vencimentos de até 1 ano. Os testes convergem e encontram evidências estatísticas de relação monotônica entre os retornos e os prazos de vencimento. No caso do teste no CAPM, foram utilizadas as séries históricas do preço das ações que compuseram o índice IBrX. Contrário ao esperado, para os dados amostrados, os testes não sustentaram a implicação teórica de monotonicidade entre os retornos médios dos portfólios e os betas de mercado ordenados crescentemente. Este resultado é de grande relevância para o mercado brasileiro.
Resumo:
É vasta a literatura em finanças quantitativas sobre o apreçamento de derivativos, porém é bem reduzida em se tratando de ações. Nessa dissertação, procuramos aplicar o modelo de Bakshi-Chen na avaliação de ações listadas na Bovespa. Os inputs do modelo são o lucro por ação, LPA, dos últimos doze meses, a expectativa de crescimento de lucro para os doze meses seguintes (g), e a taxa de juros. Vamos mostrar o ganho de precisão em relação ao modelo de Gordon e avaliar o modelo na prática realizando um backtest para descobrir se o modelo consegue estimar o valor das ações melhor do que os investidores.
Resumo:
Nos últimos anos o governo brasileiro tem adotado a postura de incentivo a projetos de infraestrutura, sendo as concessões rodoviárias um dos principais mecanismos. Muito se discute sobre a melhor forma de remuneração das concessionárias, sem que, ao mesmo tempo, os usuários não tenham um custo elevado e possam usufruir de bons serviçoes prestados.Essa discussão passa, principalmente, por uma análise de risco de tráfego, que hoje é inteiramente alocado as cconcessionárias. A metodologia utilizada nos últimos leilões segue uma exigência de Taxa Interna de Retorno ( TIR ) máxima, pelo Poder Concedente ( ANTT ), em termos reais e um prazo de concessão fixo. A partir de custos e investimentos estimados em determinada concessão, a ANTT define uma tarifa-teto a ser cobrada pela concessionária aos usuários através da TIR máxima exigida no projeto. Esta TIR é calculada com base no custo médio ponderado de capital ( WACC ) de empresas do setor, que tem ações negociadas na BM&F Bovespa, utilizando-se apenas dados domésticos. Neste trabalho é proposto um modelo alternativo, baseado no menor valor presente das receitas ( LPVR - Least Present Value of Revenues ). Neste modelo observamos que o risco de tráfego é bem menor para a concessionária, pois a concessão só se expira quando determinado nível de receitas exigido pela concessionária é atingido. Ou seja, para tal, é necessário um modelo de prazo flexível. Neste mecanismo, entretanto, com menor risco de tráfego, o upside e o downside, em termos de retorno, são menores em comparação com o modelo vigente. Utilizando este modelo, o Poder Concedente pode também definir um vencedor para o leilão ( a concessionária que ofertar o menor valor presente das receitas ) e também se utilizar da proposta de simulação de tráfegos para a definição de um prazo máximo para a concessão, em caso de implementação do mecanismo proposto.
Resumo:
A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.
Resumo:
Projetos de automação industrial são avaliados financeiramente através dos métodos bastante utilizados de Valor Presente Líquido (VPL) e Taxa Interna de Retorno (TIR). Estudos recentes mostram uma tendência para a utilização de outros métodos para realizar esta avaliação. Este trabalho explora o método alternativo de Opções Reais para avaliação desses projetos que busca se aproximar mais do mundo real considerando maior incerteza e flexibilidade do que o VPL. Inicialmente será feita uma revisão de literatura focando o método binomial dentro de Opções Reais. A metodologia proposta é um estudo de caso de um projeto no mercado de cerveja no Brasil, utilizando como fonte uma empresa multinacional de grande porte fornecedora desse projeto. Posteriormente será feita uma análise financeira primeiramente utilizando somente o VPL e posteriormente incorporando o método binomial de Opções Reais, resultando no VPL estendido. O objetivo é precificar a flexibilidade das Opções Reais presentes no contrato de fornecimento do projeto em estudo que normalmente não são consideradas. Com isso pretende-se verificar se o método binomial de Opções Reais faz real diferença no projeto em estudo.
Resumo:
Este estudo identificou a relação da aglomeração de firmas de uma mesma atividade econômica na taxa de crescimento do emprego local. Dados das firmas industriais do Estado de São Paulo constantes da Relação Anual de Informações Sociais [RAIS] nos anos de 1996 a 2005 foram coletados. Foram analisadas 263.020 observações de nível de emprego de 26.231 combinações de município-CNAE e 296 diferentes atividades. Os critérios de Puga (2003) e Suzigan, Furtado, Garcia, Sampaio (2003) foram usados para identificar as aglomerações. Uma análise de curva de crescimento, usando-se um modelo multinível, foi desenvolvida no software Hierarchical Linear Models [HLM]. Os resultados evidenciam que existe uma relação positiva entre aglomeração de firmas de uma mesma atividade econômica e o crescimento de emprego. Considerando as externalidades previstas pelo fato de as empresas estarem localizadas em uma mesma região, pode-se sugerir que, em termos comparativos, firmas de uma mesma atividade econômica, localizadas em aglomeração, podem, perceber crescimento maior que suas concorrentes localizadas fora de um aglomerado. Este resultado é relevante, tanto para a empresa individual, como para o estabelecimento de políticas públicas que apóiam o desenvolvimento regional, no nível do município. As evidências confirmam estudos anteriores de caso, permitindo dar mais robustez à teoria
Resumo:
A Análise de Sobrevivência tem como objetivo o estudo do tempo desde um instante inicial bem definido até ao acontecimento de determinado evento. Por exemplo, poderá ser o tempo de vida de um indivíduo desde o momento em que lhe é diagnosticada uma doença até a sua morte ou cura. Com a evolução da medicina, começou a se verificar a existência de indivíduos para os quais nunca se observava o acontecimento de interesse e designaram-se esses indivíduos por curados, imunes, ou não suscetíveis. Assim, da Análise de Sobrevivência clássica surgem os modelos de cura. Neste trabalho, aplicaram-se estes conceitos a uma base de dados referentes a 833 mulheres diagnosticadas com cancro da mama, entre 1998 e 2005. Verificou-se a existência de um risco de morte maior em mulheres na faixa etária dos 50 a 59 anos. Comprovou-se que o estadiamento tem um papel preponderante em relação ao prognóstico, sendo que, quanto mais avançado o estadio pior o prognóstico. Dos tratamentos a que os doentes foram submetidos, a realização de cirurgia é indicativa de um melhor prognóstico, assim como a realização de hormonoterapia e de radioterapia. No entanto, este último tratamento não se revelou estatisticamente significativo para o modelo de regressão de Cox. A realização de quimioterapia apenas reflete um melhor prognóstico nos primeiros dois anos, o que já não acontece a partir dai. Esta caraterística inesperada ficou-se a dever à esperança de vida que o tratamento oferece aos doentes no estadio IV e da associação entre a existência de gânglios metastizados e o agravamento do prognóstico, no caso do estadio II. O modelo de cura foi aplicado apenas ao grupo de mulheres no estadio IV, pois só neste caso se admitiu que o tempo de follow-up era suficiente, obtendo-se uma taxa de cura de 7;4%.
Resumo:
Natural ventilation is an efficient bioclimatic strategy, one that provides thermal comfort, healthful and cooling to the edification. However, the disregard for quality environment, the uncertainties involved in the phenomenon and the popularization of artificial climate systems are held as an excuse for those who neglect the benefits of passive cooling. The unfamiliarity with the concept may be lessened if ventilation is observed in every step of the project, especially in the initial phase in which decisions bear a great impact in the construction process. The tools available in order to quantify the impact of projected decisions consist basically of the renovation rate calculations or computer simulations of fluids, commonly dubbed CFD, which stands for Computational Fluid Dynamics , both somewhat apart from the project s execution and unable to adapt for use in parametric studies. Thus, we chose to verify, through computer simulation, the representativeness of the results with a method of simplified air reconditioning rate calculation, as well as making it more compatible with the questions relevant to the first phases of the project s process. The case object consists of a model resulting from the recommendations of the Código de Obras de Natal/ RN, customized according to the NBR 15220. The study has shown the complexity in aggregating a CFD tool to the process and the need for a method capable of generating data at the compatible rate to the flow of ideas and are discarded during the project s development. At the end of our study, we discuss the necessary concessions for the realization of simulations, the applicability and the limitations of both the tools used and the method adopted, as well as the representativeness of the results obtained
Resumo:
The system built to characterize electrodes and, consequently, deposited fine films are constituted by a hollow cathode that works to discharges and low pressures (approximately 10-3 to 5 mbar), a source DC (0 to 1200 V), a cylindrical camera of closed borossilicato for flanges of stainless steel with an association of vacuum bombs mechanical and spread. In the upper flange it is connected the system of hollow cathode, which possesses an entrance of gas and two entrances for its refrigeration, the same is electrically isolated of the rest of the equipment and it is polarized negatively. In front of the system of hollow cathode there is a movable sample in stainless steel with possibility of moving in the horizontal and vertical. In the vertical, the sample can vary its distance between 0 and 70 mm and, in the horizontal, can leave completely from the front of the hollow cathode. The sample and also the cathode hollow are equipped with cromel-alumel termopares with simultaneous reading of the temperatures during the time of treatment. In this work copper electrodes, bronze, titanium, iron, stainless steel, powder of titanium, powder of titanium and silício, glass and ceramic were used. The electrodes were investigated relating their geometry change and behavior of the plasma of the cavity of hollow cathode and channel of the gas. As the cavity of hollow cathode, the analyzed aspects were the diameter and depth. With the channel of the gas, we verified the diameter. In the two situations, we investigated parameters as flow of the gas, pressure, current and applied tension in the electrode, temperature, loss of mass of the electrode with relationship at the time of use. The flow of gas investigated in the electrodes it was fastened in a work strip from 15 to 6 sccm, the constant pressure of work was among 2.7 to 8 x 10-2 mbar. The applied current was among a strip of work from 0,8 to 0,4 A, and their respective tensions were in a strip from 400 to 220 V. Fixing the value of the current, it was possible to lift the curve of the behavior of the tension with the time of use. That curves esteem in that time of use of the electrode to its efficiency is maximum. The temperatures of the electrodes were in the dependence of that curves showing a maximum temperature when the tension was maximum, yet the measured temperatures in the samples showed to be sensitive the variation of the temperature in the electrodes. An accompaniment of the loss of mass of the electrode relating to its time of use showed that the electrodes that appeared the spherical cavities lost more mass in comparison with the electrodes in that didn't appear. That phenomenon is only seen for pressures of 10-2 mbar, in these conditions a plasma column is formed inside of the channel of the gas and in certain points it is concentrated in form of spheres. Those spherical cavities develop inside of the channel of the gas spreading during the whole extension of the channel of the gas. The used electrodes were cut after they could not be more used, however among those electrodes, films that were deposited in alternate times and the electrodes that were used to deposit films in same times, those films were deposited in the glass substrata, alumina, stainless steel 420, stainless steel 316, silício and steel M2. As the eletros used to deposit films in alternate time as the ones that they were used to deposit in same times, the behavior of the thickness of the film obeyed the curve of the tension with relationship the time of use of the electrode, that is, when the tension was maximum, the thickness of the film was also maximum and when the tension was minimum, the thickness was minimum and in the case where the value of the tension was constant, the thickness of the film tends to be constant. The fine films that were produced they had applications with nano stick, bio-compatibility, cellular growth, inhibition of bacterias, cut tool, metallic leagues, brasagem, pineapple fiber and ornamental. In those films it was investigated the thickness, the adherence and the uniformity characterized by sweeping electronic microscopy. Another technique developed to assist the production and characterization of the films produced in that work was the caloteste. It uses a sphere and abrasive to mark the sample with a cap impression, with that cap form it is possible to calculate the thickness of the film. Through the time of life of the cathode, it was possible to evaluate the rate of waste of its material for the different work conditions. Values of waste rate up to 3,2 x 10-6 g/s were verified. For a distance of the substratum of 11 mm, the deposited film was limited to a circular area of 22 mm diameter mm for high pressures and a circular area of 75 mm for pressure strip. The obtained films presented thickness around 2,1 µm, showing that the discharge of arch of hollow cathode in argon obeys a curve characteristic of the tension with the time of life of the eletrodo. The deposition rate obtained in this system it is of approximately 0,18 µm/min
Resumo:
Rio Grande do Norte State stands out as one great producer of structural clay of the brazilian northeastern. The Valley Assu ceramic tiles production stands out obtained from ilitics ball clays that abound in the region under study. Ceramics formulation and the design of experiments with mixture approach, has been applied for researchers, come as an important aid to decrease the number of experiments necessary to the optimization. In this context, the objective of this work is to evaluate the effects of the formulation, temperature and heating rate in the physical-mechanical properties of the red ceramic body used for roofing tile fabrication of the Valley Assu, using design of mixture experiments. Four clays samples used in two ceramics industry of the region were use as raw material and characterized by X-ray diffraction, chemical composition, differential thermal analysis (DTA), thermogravimetric analysis (TGA), particle size distribution analysis and plasticity techniques. Afterwards, they were defined initial molded bodies and made specimens were then prepared by uniaxial pressing at 25 MPa before firing at 850, 950 and 1050 ºC in a laboratory furnace, with heating rate in the proportions of 5, 10 e 15 ºC/min. The following tecnologicals properties were evaluated: linear firing shrinkage, water absorption and flexural strength. Results show that the temperature 1050 ºC and heating rate of 5 ºC/min was the best condition, therefore presented significance in all physical-mechanical properties. The model was accepted as valid based of the production of three new formulations with fractions mass diferents of the initial molded bodies and heated with temperature at 1050 ºC and heating rate of 5 ºC/min. Considering the formulation, temperature and heating rate as variables of the equations, another model was suggested, where from the aplication of design of experiments with mixtures was possible to get a best formulation, whose experimental error is the minor in relation to the too much formulations
Resumo:
The new oil reservoirs discoveries in onshore and ultra deep water offshore fields and complex trajectories require the optimization of procedures to reduce the stops operation during the well drilling, especially because the platforms and equipment high cost, and risks which are inherent to the operation. Among the most important aspects stands out the drilling fluids project and their behavior against different situations that may occur during the process. By means of sedimentation experiments, a correlation has been validated to determe the sedimentation particles velocity in variable viscosity fluids over time, applying the correction due to effective viscosity that is a shear rate and time function. The viscosity evolution over time was obtained by carrying out rheologic tests using a fixed shear rate, small enough to not interfere in the fluid gelling process. With the sedimentation particles velocity and the fluid viscosity over time equations an iterative procedure was proposed to determine the particles displacement over time. These equations were implemented in a case study to simulate the cuttings sedimentation generated in the oil well drilling during stops operation, especially in the connections and tripping, allowing the drilling fluid project in order to maintain the cuttings in suspension, avoiding risks, such as stuck pipe and in more drastic conditions, the loss of the well
Resumo:
A aplicação de fertilizantes fosfatados por meio de fertirrigação com sistemas de irrigação localizada pode causar obstrução de emissores. Para evitar esse problema, pode ser utilizado o ácido fosfórico como fonte de fósforo às plantas. Porém, têm sido pouco investigados os efeitos da irrigação relacionados às perdas de CO2 do solo para a atmosfera, em conseqüência da decomposição do carbono orgânico e da infiltração de água no solo. Neste trabalho, investigou-se, no período de um mês, o efeito da fertirrigação com ácido fosfórico nas taxas de emissão de CO2 de um latossolo desprovido de vegetação, na Área Experimental de Irrigação da UNESP, Câmpus de Jaboticabal - SP. Utilizou-se de um sistema de irrigação por gotejamento, com delineamento experimental em blocos casualizados, constando de cinco repetições e cinco tratamentos (0; 30; 60; 90 e 120 kg ha-1de P2O5), aplicados via fertirrigação com ácido fosfórico. Verificou-se que as taxas de emissão de CO2 aumentaram significativamente após as fertirrigações, porém não houve efeito da dose do ácido fosfórico sobre as taxas. A umidade do solo mostrou-se um fator importante na relação entre as variações das taxas de emissão e a temperatura do solo ao longo do período estudado.
Resumo:
Equipment maintenance is the major cost factor in industrial plants, it is very important the development of fault predict techniques. Three-phase induction motors are key electrical equipments used in industrial applications mainly because presents low cost and large robustness, however, it isn t protected from other fault types such as shorted winding and broken bars. Several acquisition ways, processing and signal analysis are applied to improve its diagnosis. More efficient techniques use current sensors and its signature analysis. In this dissertation, starting of these sensors, it is to make signal analysis through Park s vector that provides a good visualization capability. Faults data acquisition is an arduous task; in this way, it is developed a methodology for data base construction. Park s transformer is applied into stationary reference for machine modeling of the machine s differential equations solution. Faults detection needs a detailed analysis of variables and its influences that becomes the diagnosis more complex. The tasks of pattern recognition allow that systems are automatically generated, based in patterns and data concepts, in the majority cases undetectable for specialists, helping decision tasks. Classifiers algorithms with diverse learning paradigms: k-Neighborhood, Neural Networks, Decision Trees and Naïves Bayes are used to patterns recognition of machines faults. Multi-classifier systems are used to improve classification errors. It inspected the algorithms homogeneous: Bagging and Boosting and heterogeneous: Vote, Stacking and Stacking C. Results present the effectiveness of constructed model to faults modeling, such as the possibility of using multi-classifiers algorithm on faults classification
Resumo:
Nowadays, classifying proteins in structural classes, which concerns the inference of patterns in their 3D conformation, is one of the most important open problems in Molecular Biology. The main reason for this is that the function of a protein is intrinsically related to its spatial conformation. However, such conformations are very difficult to be obtained experimentally in laboratory. Thus, this problem has drawn the attention of many researchers in Bioinformatics. Considering the great difference between the number of protein sequences already known and the number of three-dimensional structures determined experimentally, the demand of automated techniques for structural classification of proteins is very high. In this context, computational tools, especially Machine Learning (ML) techniques, have become essential to deal with this problem. In this work, ML techniques are used in the recognition of protein structural classes: Decision Trees, k-Nearest Neighbor, Naive Bayes, Support Vector Machine and Neural Networks. These methods have been chosen because they represent different paradigms of learning and have been widely used in the Bioinfornmatics literature. Aiming to obtain an improvment in the performance of these techniques (individual classifiers), homogeneous (Bagging and Boosting) and heterogeneous (Voting, Stacking and StackingC) multiclassification systems are used. Moreover, since the protein database used in this work presents the problem of imbalanced classes, artificial techniques for class balance (Undersampling Random, Tomek Links, CNN, NCL and OSS) are used to minimize such a problem. In order to evaluate the ML methods, a cross-validation procedure is applied, where the accuracy of the classifiers is measured using the mean of classification error rate, on independent test sets. These means are compared, two by two, by the hypothesis test aiming to evaluate if there is, statistically, a significant difference between them. With respect to the results obtained with the individual classifiers, Support Vector Machine presented the best accuracy. In terms of the multi-classification systems (homogeneous and heterogeneous), they showed, in general, a superior or similar performance when compared to the one achieved by the individual classifiers used - especially Boosting with Decision Tree and the StackingC with Linear Regression as meta classifier. The Voting method, despite of its simplicity, has shown to be adequate for solving the problem presented in this work. The techniques for class balance, on the other hand, have not produced a significant improvement in the global classification error. Nevertheless, the use of such techniques did improve the classification error for the minority class. In this context, the NCL technique has shown to be more appropriated