1000 resultados para taxa de aplicação
Resumo:
A tendência atual de desenvolvimento de novos equipamentos geotécnicos combina diferentes técnicas, aliando a robustez do ensaio de cone às informações adicionais de outros ensaios. O cone sísmico constitui-se em exemplo típico adotado internacionalmente. Geofones ou acelerômetros podem ser incorporados ao fuste do cone para medida de velocidade de propagação de ondas de compressão e cisalhamento. O cone possibilita uma estimativa da resistência ao cisalhamento de materiais geotécnicos, enquanto as medias sísmicas permitem medir o módulo cisalhante a pequenas deformações. A combinação de valores de resistência e deformabilidade, expressa através da razão entre Go/qc, pode representar uma alternativa importante na caracterização de solos. Nesta dissertação o cone sísmico foi projetado, construído, calibrado e testado no depósito argiloso do Aeroporto Internacional Salgado Filho em Porto Alegre. O equipamento é composto de um módulo onde são acondicionados dois sensores (geofones), distantes de 1,0 m, para a captação das ondas de cisalhamento. Os sinais são captados e enviados para um pré-amplificador com filtro, acondicionado no módulo sísmico, sendo posteriormente conduzidos para um segundo amplificador cuja taxa de amplificação pode ser regulada. O sinal adquirido é armazenado em um computador para análise posterior O ensaio de cone sísmico consiste basicamente na geração de uma onda de cisalhamento na superfície do solo e seu armazenamento com o sistema de aquisição de sinais. A determinação do módulo de cisalhamento é feita através da teoria da elasticidade, medindo-se os tempos de chegada da onda de cisalhamento em cada geofone e calculando-se a velocidade de percurso da onda entre os dois sensores. O trabalho contempla o desenvolvimento do cone sísmico, montagem, calibração e aplicação na Área do Aeroporto Internacional Salgado Filho. Os resultados obtidos são comparados a resultados de ensaios de cross-hole existentes no referido local.
Resumo:
Um dos grandes desafios na gestão de uma carteira de renda fixa passa pela estimação da curva de juros dos títulos que a compõe. Sua correta estimação e a identificação dos fatores de risco associados a estes títulos são imprescindíveis para uma boa gestão de uma carteira de renda fixa, assim como para o correto apreçamento dos ativos. O presente trabalho tem por objetivo estimar a curva de juros real da economia brasileira a partir de um conjunto de títulos negociados no mercado. Os títulos em questão são as notas do tesouro nacional série B (NTN-B), que tem sua rentabilidade vinculada à variação da inflação (IPCA), acrescida de juros definidos no momento da compra. Por se tratar de títulos que pagam cupom não se pode observar num primeiro momento sua estrutura a termo, nesse sentido, serão apresentados modelos capazes de extrair a curva “zero cupom” a partir destes títulos e estimar a estrutura a termo da taxa de juros real. Através da análise de componentes principais será possível identificar os principais fatores responsáveis por movimentos na curva estimada e consequentemente no preço do título. Alguns cenários macroeconômicos serão elaborados de forma a estudar o comportamento dos títulos frente a choques nesses fatores (análise de sensibilidade). A elaboração de cenários e a análise das prováveis trajetórias para o preço deste título auxiliarão na gestão de carteiras de títulos de renda fixa.
Resumo:
Este trabalho estuda a previsão da taxa de juros com foco em uma estratégia de investimento. Inicialmente é feita a parametrização da taxa de juros com o modelo de Vasicek para posterior aplicação do modelo autorregressivo tanto na taxa de juros quanto nos parâmetros do Vasicek. O instrumento financeiro escolhido para verificar a eficácia da metodologia proposta foi o constant matutity swap aplicado em alguns vértices. Os resultados variaram significativamente para os diferentes horizontes de calibragem e períodos de amostragem sem um padrão de desempenho.
Resumo:
O trabalho busca comparar dois conjuntos de informações para a projeção das variações do PIB brasileiro: através de modelos econométricos aplicados sobre a série univariada do PIB, e a aplicação dos mesmos modelos, mas contemplando adicionalmente o conjunto de informação com dados da estrutura a termo de taxa de juros de swap PRÉ-DI. O objetivo é verificar, assim como descrito na literatura internacional, se informações de variáveis financeiras tem a capacidade de incrementar o poder preditivo de projeções de variáveis macroeconômicas, na medida em que esses dados também embutem as expectativas dos agentes em relação ao desenvolvimento do cenário econômico. Adicionalmente, o mesmo procedimento aplicado para os dados brasileiros é aplicado sobre as informações dos Estados Unidos, buscando poder fornecer ao estudo uma base de comparação sobre os dados, tamanho da amostra e estágio de maturidade das respectivas economias. Como conclusão do resultado do trabalho está o fato de que foi possível obter um modelo no qual a inclusão do componente de mercado apresenta menores erros de projeção do que as projeções apenas univariadas, no entanto, os ganhos de projeção não demonstram grande vantagem comparativa a ponto de poder capturar o efeito de antecipação do mercado em relação ao indicador econômico como em alguns casos norte-americanos. Adicionalmente o estudo demonstra que para este trabalho e amostra de dados, mesmo diante de diferentes modelos econométricos de previsão, as projeções univariadas apresentaram resultados similares.
Resumo:
Nesse trabalho desenvolvemos uma estratégia para o apreçamento de opções de recompra Embutidas . Esse tipo específico de opção está presente em um grande número de debêntures no mercado brasileiro. Em função deste mercado apresentar um número reduzido de ativos, o apreçamento destas opções se faz necessário para que tenhamos condições de ampliar a massa de ativos disponíveis para a análise. Como passo intermediário, é preciso determinar quando é interessante para o emissor efetuar o resgate antecipado da debênture. Para este m, propomos uma metodologia para a estimação da estrutura a termo da taxa de juros do mercado de debêntures com base no modelo de Nelson-Siegel.
Resumo:
Muitas teorias de finanças implicam em relações monotônicas nos retornos esperados em função de variáveis financeiras, tais como a hipótese de preferência por liquidez e o Capital Asset Pricing Model (CAPM). No entanto, estudos empíricos que testam este tipo de relação não são muitos explorados, principalmente no mercado brasileiro. A contribuição científica neste trabalho é utilizar ativos domésticos e verificar se no mercado nacional estas implicações monotônicas das teorias de finanças são sustentadas empiricamente. Fizemos uma revisão dos testes presentes na literatura para verificar a monotonicidade: os testes t, Bonferroni utilizado por Fama (1984), Wolak (1989) e o teste MR, de Patton e Timmermann (2010). Utilizamos a técnica de bootstrap e incluímos na análise dos resultados os testes “Up” e “Down”. No teste para verificar a hipótese de preferência por liquidez foram utilizadas as séries da taxa referencial de swaps DI pré-fixada para vencimentos de até 1 ano. Os testes convergem e encontram evidências estatísticas de relação monotônica entre os retornos e os prazos de vencimento. No caso do teste no CAPM, foram utilizadas as séries históricas do preço das ações que compuseram o índice IBrX. Contrário ao esperado, para os dados amostrados, os testes não sustentaram a implicação teórica de monotonicidade entre os retornos médios dos portfólios e os betas de mercado ordenados crescentemente. Este resultado é de grande relevância para o mercado brasileiro.
Resumo:
É vasta a literatura em finanças quantitativas sobre o apreçamento de derivativos, porém é bem reduzida em se tratando de ações. Nessa dissertação, procuramos aplicar o modelo de Bakshi-Chen na avaliação de ações listadas na Bovespa. Os inputs do modelo são o lucro por ação, LPA, dos últimos doze meses, a expectativa de crescimento de lucro para os doze meses seguintes (g), e a taxa de juros. Vamos mostrar o ganho de precisão em relação ao modelo de Gordon e avaliar o modelo na prática realizando um backtest para descobrir se o modelo consegue estimar o valor das ações melhor do que os investidores.
Resumo:
Nos últimos anos o governo brasileiro tem adotado a postura de incentivo a projetos de infraestrutura, sendo as concessões rodoviárias um dos principais mecanismos. Muito se discute sobre a melhor forma de remuneração das concessionárias, sem que, ao mesmo tempo, os usuários não tenham um custo elevado e possam usufruir de bons serviçoes prestados.Essa discussão passa, principalmente, por uma análise de risco de tráfego, que hoje é inteiramente alocado as cconcessionárias. A metodologia utilizada nos últimos leilões segue uma exigência de Taxa Interna de Retorno ( TIR ) máxima, pelo Poder Concedente ( ANTT ), em termos reais e um prazo de concessão fixo. A partir de custos e investimentos estimados em determinada concessão, a ANTT define uma tarifa-teto a ser cobrada pela concessionária aos usuários através da TIR máxima exigida no projeto. Esta TIR é calculada com base no custo médio ponderado de capital ( WACC ) de empresas do setor, que tem ações negociadas na BM&F Bovespa, utilizando-se apenas dados domésticos. Neste trabalho é proposto um modelo alternativo, baseado no menor valor presente das receitas ( LPVR - Least Present Value of Revenues ). Neste modelo observamos que o risco de tráfego é bem menor para a concessionária, pois a concessão só se expira quando determinado nível de receitas exigido pela concessionária é atingido. Ou seja, para tal, é necessário um modelo de prazo flexível. Neste mecanismo, entretanto, com menor risco de tráfego, o upside e o downside, em termos de retorno, são menores em comparação com o modelo vigente. Utilizando este modelo, o Poder Concedente pode também definir um vencedor para o leilão ( a concessionária que ofertar o menor valor presente das receitas ) e também se utilizar da proposta de simulação de tráfegos para a definição de um prazo máximo para a concessão, em caso de implementação do mecanismo proposto.
Resumo:
A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.
Resumo:
Projetos de automação industrial são avaliados financeiramente através dos métodos bastante utilizados de Valor Presente Líquido (VPL) e Taxa Interna de Retorno (TIR). Estudos recentes mostram uma tendência para a utilização de outros métodos para realizar esta avaliação. Este trabalho explora o método alternativo de Opções Reais para avaliação desses projetos que busca se aproximar mais do mundo real considerando maior incerteza e flexibilidade do que o VPL. Inicialmente será feita uma revisão de literatura focando o método binomial dentro de Opções Reais. A metodologia proposta é um estudo de caso de um projeto no mercado de cerveja no Brasil, utilizando como fonte uma empresa multinacional de grande porte fornecedora desse projeto. Posteriormente será feita uma análise financeira primeiramente utilizando somente o VPL e posteriormente incorporando o método binomial de Opções Reais, resultando no VPL estendido. O objetivo é precificar a flexibilidade das Opções Reais presentes no contrato de fornecimento do projeto em estudo que normalmente não são consideradas. Com isso pretende-se verificar se o método binomial de Opções Reais faz real diferença no projeto em estudo.
Resumo:
Este estudo identificou a relação da aglomeração de firmas de uma mesma atividade econômica na taxa de crescimento do emprego local. Dados das firmas industriais do Estado de São Paulo constantes da Relação Anual de Informações Sociais [RAIS] nos anos de 1996 a 2005 foram coletados. Foram analisadas 263.020 observações de nível de emprego de 26.231 combinações de município-CNAE e 296 diferentes atividades. Os critérios de Puga (2003) e Suzigan, Furtado, Garcia, Sampaio (2003) foram usados para identificar as aglomerações. Uma análise de curva de crescimento, usando-se um modelo multinível, foi desenvolvida no software Hierarchical Linear Models [HLM]. Os resultados evidenciam que existe uma relação positiva entre aglomeração de firmas de uma mesma atividade econômica e o crescimento de emprego. Considerando as externalidades previstas pelo fato de as empresas estarem localizadas em uma mesma região, pode-se sugerir que, em termos comparativos, firmas de uma mesma atividade econômica, localizadas em aglomeração, podem, perceber crescimento maior que suas concorrentes localizadas fora de um aglomerado. Este resultado é relevante, tanto para a empresa individual, como para o estabelecimento de políticas públicas que apóiam o desenvolvimento regional, no nível do município. As evidências confirmam estudos anteriores de caso, permitindo dar mais robustez à teoria
Resumo:
A Análise de Sobrevivência tem como objetivo o estudo do tempo desde um instante inicial bem definido até ao acontecimento de determinado evento. Por exemplo, poderá ser o tempo de vida de um indivíduo desde o momento em que lhe é diagnosticada uma doença até a sua morte ou cura. Com a evolução da medicina, começou a se verificar a existência de indivíduos para os quais nunca se observava o acontecimento de interesse e designaram-se esses indivíduos por curados, imunes, ou não suscetíveis. Assim, da Análise de Sobrevivência clássica surgem os modelos de cura. Neste trabalho, aplicaram-se estes conceitos a uma base de dados referentes a 833 mulheres diagnosticadas com cancro da mama, entre 1998 e 2005. Verificou-se a existência de um risco de morte maior em mulheres na faixa etária dos 50 a 59 anos. Comprovou-se que o estadiamento tem um papel preponderante em relação ao prognóstico, sendo que, quanto mais avançado o estadio pior o prognóstico. Dos tratamentos a que os doentes foram submetidos, a realização de cirurgia é indicativa de um melhor prognóstico, assim como a realização de hormonoterapia e de radioterapia. No entanto, este último tratamento não se revelou estatisticamente significativo para o modelo de regressão de Cox. A realização de quimioterapia apenas reflete um melhor prognóstico nos primeiros dois anos, o que já não acontece a partir dai. Esta caraterística inesperada ficou-se a dever à esperança de vida que o tratamento oferece aos doentes no estadio IV e da associação entre a existência de gânglios metastizados e o agravamento do prognóstico, no caso do estadio II. O modelo de cura foi aplicado apenas ao grupo de mulheres no estadio IV, pois só neste caso se admitiu que o tempo de follow-up era suficiente, obtendo-se uma taxa de cura de 7;4%.
Resumo:
Natural ventilation is an efficient bioclimatic strategy, one that provides thermal comfort, healthful and cooling to the edification. However, the disregard for quality environment, the uncertainties involved in the phenomenon and the popularization of artificial climate systems are held as an excuse for those who neglect the benefits of passive cooling. The unfamiliarity with the concept may be lessened if ventilation is observed in every step of the project, especially in the initial phase in which decisions bear a great impact in the construction process. The tools available in order to quantify the impact of projected decisions consist basically of the renovation rate calculations or computer simulations of fluids, commonly dubbed CFD, which stands for Computational Fluid Dynamics , both somewhat apart from the project s execution and unable to adapt for use in parametric studies. Thus, we chose to verify, through computer simulation, the representativeness of the results with a method of simplified air reconditioning rate calculation, as well as making it more compatible with the questions relevant to the first phases of the project s process. The case object consists of a model resulting from the recommendations of the Código de Obras de Natal/ RN, customized according to the NBR 15220. The study has shown the complexity in aggregating a CFD tool to the process and the need for a method capable of generating data at the compatible rate to the flow of ideas and are discarded during the project s development. At the end of our study, we discuss the necessary concessions for the realization of simulations, the applicability and the limitations of both the tools used and the method adopted, as well as the representativeness of the results obtained
Resumo:
The system built to characterize electrodes and, consequently, deposited fine films are constituted by a hollow cathode that works to discharges and low pressures (approximately 10-3 to 5 mbar), a source DC (0 to 1200 V), a cylindrical camera of closed borossilicato for flanges of stainless steel with an association of vacuum bombs mechanical and spread. In the upper flange it is connected the system of hollow cathode, which possesses an entrance of gas and two entrances for its refrigeration, the same is electrically isolated of the rest of the equipment and it is polarized negatively. In front of the system of hollow cathode there is a movable sample in stainless steel with possibility of moving in the horizontal and vertical. In the vertical, the sample can vary its distance between 0 and 70 mm and, in the horizontal, can leave completely from the front of the hollow cathode. The sample and also the cathode hollow are equipped with cromel-alumel termopares with simultaneous reading of the temperatures during the time of treatment. In this work copper electrodes, bronze, titanium, iron, stainless steel, powder of titanium, powder of titanium and silício, glass and ceramic were used. The electrodes were investigated relating their geometry change and behavior of the plasma of the cavity of hollow cathode and channel of the gas. As the cavity of hollow cathode, the analyzed aspects were the diameter and depth. With the channel of the gas, we verified the diameter. In the two situations, we investigated parameters as flow of the gas, pressure, current and applied tension in the electrode, temperature, loss of mass of the electrode with relationship at the time of use. The flow of gas investigated in the electrodes it was fastened in a work strip from 15 to 6 sccm, the constant pressure of work was among 2.7 to 8 x 10-2 mbar. The applied current was among a strip of work from 0,8 to 0,4 A, and their respective tensions were in a strip from 400 to 220 V. Fixing the value of the current, it was possible to lift the curve of the behavior of the tension with the time of use. That curves esteem in that time of use of the electrode to its efficiency is maximum. The temperatures of the electrodes were in the dependence of that curves showing a maximum temperature when the tension was maximum, yet the measured temperatures in the samples showed to be sensitive the variation of the temperature in the electrodes. An accompaniment of the loss of mass of the electrode relating to its time of use showed that the electrodes that appeared the spherical cavities lost more mass in comparison with the electrodes in that didn't appear. That phenomenon is only seen for pressures of 10-2 mbar, in these conditions a plasma column is formed inside of the channel of the gas and in certain points it is concentrated in form of spheres. Those spherical cavities develop inside of the channel of the gas spreading during the whole extension of the channel of the gas. The used electrodes were cut after they could not be more used, however among those electrodes, films that were deposited in alternate times and the electrodes that were used to deposit films in same times, those films were deposited in the glass substrata, alumina, stainless steel 420, stainless steel 316, silício and steel M2. As the eletros used to deposit films in alternate time as the ones that they were used to deposit in same times, the behavior of the thickness of the film obeyed the curve of the tension with relationship the time of use of the electrode, that is, when the tension was maximum, the thickness of the film was also maximum and when the tension was minimum, the thickness was minimum and in the case where the value of the tension was constant, the thickness of the film tends to be constant. The fine films that were produced they had applications with nano stick, bio-compatibility, cellular growth, inhibition of bacterias, cut tool, metallic leagues, brasagem, pineapple fiber and ornamental. In those films it was investigated the thickness, the adherence and the uniformity characterized by sweeping electronic microscopy. Another technique developed to assist the production and characterization of the films produced in that work was the caloteste. It uses a sphere and abrasive to mark the sample with a cap impression, with that cap form it is possible to calculate the thickness of the film. Through the time of life of the cathode, it was possible to evaluate the rate of waste of its material for the different work conditions. Values of waste rate up to 3,2 x 10-6 g/s were verified. For a distance of the substratum of 11 mm, the deposited film was limited to a circular area of 22 mm diameter mm for high pressures and a circular area of 75 mm for pressure strip. The obtained films presented thickness around 2,1 µm, showing that the discharge of arch of hollow cathode in argon obeys a curve characteristic of the tension with the time of life of the eletrodo. The deposition rate obtained in this system it is of approximately 0,18 µm/min
Resumo:
Rio Grande do Norte State stands out as one great producer of structural clay of the brazilian northeastern. The Valley Assu ceramic tiles production stands out obtained from ilitics ball clays that abound in the region under study. Ceramics formulation and the design of experiments with mixture approach, has been applied for researchers, come as an important aid to decrease the number of experiments necessary to the optimization. In this context, the objective of this work is to evaluate the effects of the formulation, temperature and heating rate in the physical-mechanical properties of the red ceramic body used for roofing tile fabrication of the Valley Assu, using design of mixture experiments. Four clays samples used in two ceramics industry of the region were use as raw material and characterized by X-ray diffraction, chemical composition, differential thermal analysis (DTA), thermogravimetric analysis (TGA), particle size distribution analysis and plasticity techniques. Afterwards, they were defined initial molded bodies and made specimens were then prepared by uniaxial pressing at 25 MPa before firing at 850, 950 and 1050 ºC in a laboratory furnace, with heating rate in the proportions of 5, 10 e 15 ºC/min. The following tecnologicals properties were evaluated: linear firing shrinkage, water absorption and flexural strength. Results show that the temperature 1050 ºC and heating rate of 5 ºC/min was the best condition, therefore presented significance in all physical-mechanical properties. The model was accepted as valid based of the production of three new formulations with fractions mass diferents of the initial molded bodies and heated with temperature at 1050 ºC and heating rate of 5 ºC/min. Considering the formulation, temperature and heating rate as variables of the equations, another model was suggested, where from the aplication of design of experiments with mixtures was possible to get a best formulation, whose experimental error is the minor in relation to the too much formulations