998 resultados para Probit ordenado dinâmico


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos próximos anos são esperados elevados volumes de investimentos em Tecnologia da Informação (TI) no Brasil e no Mundo. Por trás desses investimentos está a expectativa de que as organizações irão alcançar níveis superiores de performance e produtividade, os quais deverão ser gerados, entre outras coisas, por novas formas de organização e práticas inovadoras de negócio viabilizadas pela TI. Nesse contexto, a capacidade de gerir as possíveis resistências que serão trazidas por essas mudanças organizacionais se mostra um dos fatores mais importantes para o sucesso desses investimentos. Diante disso, o objetivo deste trabalho é analisar alguns dos diversos modelos existentes sobre resistência a mudança em implantações de Sistemas de Informação e, a partir da articulação de três deles, propor um metamodelo teórico que poderá ter um maior poder de explicação desse fenômeno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa, batizada Astrha (Automata Structured Hyper-Animation), tem suas raízes no projeto “Hyper Seed - Framework, Ferramentas e Métodos para Sistemas Hipermídia voltados para EAD via WWW” que possui, entre seus objetivos e metas: (a) o desenvolvimento de uma fundamentação matemática para a unificação, de maneira coerente e matematicamente rigorosa, de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos; (b) a construção e validação de um protótipo de sistema com suporte à criação de conteúdo multimídia e hipermídia com ênfase em educação assistida por computador; (c) a definição e aplicação de estudos de caso. Atender às demandas acadêmicas e construtoras supra citadas, no que se refere à unificação de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos, em nível conceitual, é o objetivo principal do Astrha. Mais especificamente, unificar conceitos das especificações Hyper-Automaton; Hyper- Automaton: Avaliações Interativas; eXtensible Hyper-Automaton (XHA) e Animação Bidimensional para World Wide Web (AGA). Para resolvê-las, propõe uma solução em cinco fases. A primeira constitui-se numa investigação conceitual sobre unificação de ambientes hipermídia com animações por computador, da qual conclui-se que as hiperanimações são uma resposta adequada ao contexto. Em seguida, um autômato finito não-determinístico, reflexivo, com saídas associadas às transições, denominado Astrha/M, é especializado para modelar, formalmente, estruturas hiper-animadas. Na terceira fase, uma linguagem de quarta geração denominada Astrha/L é proposta com a finalidade de proporcionar semântica à ambientes hiper-animados. Construída a partir da metalinguagem XML, é composta de quatro dialetos: (1) Mealy, que traduz o modelo Astrha/M; (2) Environment, que oferece opções de configuração e documentação; (3) Hyper, linguagem hipermídia, de sintaxe simples, que oferece hiperligações estendidas; (4) Style, especificação de estilos em cascata e de caracteres especiais. A quarta fase é a modelagem e construção do protótipo, denominado Astrha/E, através das linguagens UML e Java, respectivamente, com uso de tecnologias de software livre, resultando em um applet interativo, dinâmico, multimídia, que oferece características e propriedades de uma hiper-animação, traduzindo não-determinismos em escolhas pseudo-aleatórias e reflexividades em inoperabilidades aparentes. Por fim, a quinta fase trata de estudos de caso aplicados em educação a distância, em diversas áreas, de onde se conclui sua validade como conceito, modelo e ferramenta para programas educacionais que utilizam a Internet como meio de auxílio ao aprendizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho avança no sentido de compreender esse processo de saída da indústria das tradicionais regiões industriais e dos grandes centros urbanos. A partir de uma abordagem empírica quantitativa e do uso de dados secundários sobre mão de obra, busca dialogar com os trabalhos aplicados à economia industrial brasileira que diagnosticam a desconcentração e analisam as decisões locacionais das firmas. Utilizando como referência a metodologia desenvolvida Dumais, Ellison e Glaeser no artigo Geographic Concentration as a Dynamic Process, este trabalho busca compreender o processo de desconcentração industrial a partir de uma abordagem dinâmica, como produto da formação de novos centros industriais, do declínio de antigas regiões especializadas, do surgimento de novas plantas e do fechamento de empresas. A análise empírica sobre as duas últimas décadas confirma o processo de desconcentração da atividade industrial no Brasil, mas aponta para uma desaceleração dessa tendência. Este trabalho confirma o diagnóstico apresentado por outros trabalhos que apontam para diferentes padrões de concentração setoriais. Conforme esperado, os setores de extração são consideravelmente mais concentrados que os de manufatura, pois dependem da localização da matéria prima a ser extraída. Ao abordar apenas os setores têxtil e de vestuário, verifica-se o inverso: estes setores são consideravelmente mais desconcentrados. Selecionando apenas os setores de alta tecnologia, verifica-se que eles também são mais concentrados que todos os setores conjuntamente. As taxas de desconcentração são então decompostas entre os efeitos de reversão à média e dispersão, de forma a evidenciar a mobilidade da indústria. O que se verifica é que a mobilidade é muito maior do que apenas as taxas de desconcentração demonstram. O efeito de reversão à média é quatro vezes maior que o efeito total e consideravelmente maior que o efeito aleatório, sendo suficientemente forte para levar a uma redução de mais de 40% na aglomeração industrial brasileira a cada cinco anos. Por outro lado, o efeito dispersão é responsável por um crescimento de mais de 30% nas taxas de aglomeração para a indústria como um todo a cada quinquênio, de forma que a variação total observada em cada um desses períodos é produto da diferença desses dois movimentos contrários. Estes valores observados são muito superiores aos encontrados por para a economia americana. Ao analisar o efeito que a criação de novas empresas, do encerramento de firmas em funcionamento e da expansão e contração da mão de obra, verifica-se que o nascimento de empresas contribui para a desaglomeração da atividade industrial, pois estes eventos ocorrem em maior quantidade fora dos centros onde já existe aglomeração. Por outro lado, as empresas são menos propensas a encerrar suas atividades nas regiões que possuem uma participação maior do que a esperada de emprego na indústria. Ou seja, o fechamento de empresas, conforme também encontrado para o mercado americano, contribui para a aglomeração industrial. Para expansões e contrações em empresas já existentes, ambos os tipos de evento contribuem para o efeito de reversão à média e para a desaglomeração da indústria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa a importância dos fatores comuns na evolução recente dos preços dos metais no período entre 1995 e 2013. Para isso, estimam-se modelos cointegrados de VAR e também um modelo de fator dinâmico bayesiano. Dado o efeito da financeirização das commodities, DFM pode capturar efeitos dinâmicos comuns a todas as commodities. Além disso, os dados em painel são aplicados para usar toda a heterogeneidade entre as commodities durante o período de análise. Nossos resultados mostram que a taxa de juros, taxa efetiva do dólar americano e também os dados de consumo têm efeito permanente nos preços das commodities. Observa-se ainda a existência de um fator dinâmico comum significativo para a maioria dos preços das commodities metálicas, que tornou-se recentemente mais importante na evolução dos preços das commodities.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dado a importância da gestão de risco associada às operações de crédito, modelos estatísticos que avaliam o risco de inadimplência tornaram-se fundamentais na mensuração do risco associado a um cliente. Neste contexto, foi desenvolvido um modelo dinâmico de crédito utilizando variáveis características dos clientes, comportamentais e macroeconômicas através da Análise de Sobrevivência aplicada a dados discretos. Os resultados obtidos indicam que a inclusão de variáveis macroeconômicas provoca um efeito significativo, porém baixo, no ajuste do modelo. Entretanto, nota-se uma melhora expressiva no poder de previsão da taxa de inadimplência do portfólio quando aplicado a um conjunto de dados de validação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

É vasta a literatura em finanças quantitativas sobre o apreçamento de derivativos, porém é bem reduzida em se tratando de ações. Nessa dissertação, procuramos aplicar o modelo de Bakshi-Chen na avaliação de ações listadas na Bovespa. Os inputs do modelo são o lucro por ação, LPA, dos últimos doze meses, a expectativa de crescimento de lucro para os doze meses seguintes (g), e a taxa de juros. Vamos mostrar o ganho de precisão em relação ao modelo de Gordon e avaliar o modelo na prática realizando um backtest para descobrir se o modelo consegue estimar o valor das ações melhor do que os investidores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta aula o professor apresenta alocação de memória na linguagem de programação C++ e ilustra como podem ser acessadas e realizadas as funções de orientação a objeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The biofilms microbial forms of association are responsible for generating, accelerating and / or induce the process of corrosion. The damage generated in the petroleum industry for this type of corrosion is significatives, representing major investment for your control. The aim of this study was to evaluate such tests antibiograms the effects of extracts of Jatropha curcas and essential oil of Lippia gracilis Schauer on microrganisms isolated from water samples and, thereafter, select the most effective natural product for further evaluation of biofilms formed in dynamic system. Extracts of J. curcas were not efficient on the complete inhibition of microbial growth in tests type antibiogram, and essential oil of L. gracilis Schauer most effective and determined for the other tests. A standard concentration of essential oil of 20 μL was chosen and established for the evaluation of the biofilms and the rate of corrosion. The biocide effect was determined by microbial counts of five types of microorganisms: aerobic bacteria, precipitating iron, total anaerobic, sulphate reducers (BRS) and fungi. The rate of corrosion was measured by loss of mass. Molecular identification and scanning electron microscopy (SEM) were performed. The data showed reduction to zero of the most probable number (MPN) of bacteria precipitating iron and BRS from 115 and 113 minutes of contact, respectively. There was also inhibited in fungi, reducing to zero the rate of colony-forming units (CFU) from 74 minutes of exposure. However, for aerobic and anaerobic bacteria there was no significant difference in the time of exposure to the essential oil, remaining constant. The rate of corrosion was also influenced by the presence of oil. The essential oil of L. gracilis was shown to be potentially effective