972 resultados para Aplicação móvel


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objetivo mensurar, através da metodologia de opções reais, o valor de opções e do método de pagamento definidos no contrato de aquisição de uma companhia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos o governo brasileiro tem adotado a postura de incentivo a projetos de infraestrutura, sendo as concessões rodoviárias um dos principais mecanismos. Muito se discute sobre a melhor forma de remuneração das concessionárias, sem que, ao mesmo tempo, os usuários não tenham um custo elevado e possam usufruir de bons serviçoes prestados.Essa discussão passa, principalmente, por uma análise de risco de tráfego, que hoje é inteiramente alocado as cconcessionárias. A metodologia utilizada nos últimos leilões segue uma exigência de Taxa Interna de Retorno ( TIR ) máxima, pelo Poder Concedente ( ANTT ), em termos reais e um prazo de concessão fixo. A partir de custos e investimentos estimados em determinada concessão, a ANTT define uma tarifa-teto a ser cobrada pela concessionária aos usuários através da TIR máxima exigida no projeto. Esta TIR é calculada com base no custo médio ponderado de capital ( WACC ) de empresas do setor, que tem ações negociadas na BM&F Bovespa, utilizando-se apenas dados domésticos. Neste trabalho é proposto um modelo alternativo, baseado no menor valor presente das receitas ( LPVR - Least Present Value of Revenues ). Neste modelo observamos que o risco de tráfego é bem menor para a concessionária, pois a concessão só se expira quando determinado nível de receitas exigido pela concessionária é atingido. Ou seja, para tal, é necessário um modelo de prazo flexível. Neste mecanismo, entretanto, com menor risco de tráfego, o upside e o downside, em termos de retorno, são menores em comparação com o modelo vigente. Utilizando este modelo, o Poder Concedente pode também definir um vencedor para o leilão ( a concessionária que ofertar o menor valor presente das receitas ) e também se utilizar da proposta de simulação de tráfegos para a definição de um prazo máximo para a concessão, em caso de implementação do mecanismo proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Since 2006, the Getulio Vargas Foundation (FGV) calculates a daily version of the Broad Consumer Price Index (IPCA), the official inflation index, calculated under the responsibility of the IBGE, the federal statistics agency in Brazil. Ardeo et. al. (2013) showed the importance of this indicator and how this daily information can be useful to a country that had high level of inflation. Despite the fact that this measure is a fair antecedent variable for inflation, due to some peculiarities concerning the collection period, the initial daily rating may not anticipate some effects, such as seasonal factors and the increase in prices controlled by the Brazilian Government. Hence, by taking into account the Monitor´s daily time series, this paper intends to forecast the IPCA for the first six days of data collection. The results showed up that the proposal technic improved the IPCA forecast in the beginning of data collection.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é aplicar e avaliar o desempenho do conceito de técnicas de nowcasting para previsão de uma importante variável macroeconômica do Produto Interno Bruto (PIB) brasileiro. Nos últimos anos, novas técnicas vêm sendo propostas e aprimoradas. Comparam-se diferentes modelos de nowcasting frente a um benchmarking, avaliando a relevância das variáveis a partir do Autometrics, que foi desenvolvido por Doornik (2011). A proposta é reunir diversos indicadores econômicos da economia brasileira que possam em maior ou menor grau antecipar a variação do PIB. Será utilizada a técnica de variáveis dummies com saturação (proposta por Johansen et. al.) para controlar possíveis quebras e outliers. Esta abordagem é adequada para um ambiente econômico instável, com constantes mudanças ao longo do tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho trata da importância do modelamento da dinâmica do livro de ordens visando a compreensão dessa microestrutura de mercado. Para tanto, objetiva aplicar as técnicas de modelamento do livro de ofertas utilizando o modelo estocástico proposto por Cont, Stoikov e Talreja (2010) ao mercado acionário brasileiro. Uma vez aplicado o modelo, analisamos os resultados obtidos sob a ótica de outros estudos empíricos, como Bouchaud et al. (2002). Após a estimação e análise dos resultados foram realizadas simulações para constatar se os parâmetros encontrados refletem a dinâmica do mercado local, para diferentes cenários de normalização do tamanho das ordens. Por fim, com a análise dos resultados encontrados, foi possível concluir, com algumas ressalvas, que o modelo proposto é válido para o mercado de ações brasileiro, assim como é apresentado o impacto da liquidez dos ativos na comparação aos parâmetros encontrados em outros mercados internacionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo objetivou dimensionar o valor estratégico dos Serious Games e da Gamificação como alternativas pedagógicas em favor do aprendizado sobre Gestão Pública. De cunho exploratório e descritivo, o estudo, visa fornecer algum conhecimento sobre ferramentas alternativas de apoio ao ensino da Gestão Pública, tomando o papel dos jogos digitais como instrumentos contributivos aos educadores. A metodologia aplicada é fenomenológica, pois buscou extrair significados por intermédio dos sujeitos, a fim de obter uma maior compreensão do fenômeno de aprendizagem baseada em jogos digitais. A investigação foi conduzida por pesquisas bibliográficas e de campo, na qual a coleta de dados foi obtida por meio de entrevistas por pautas. Ao todo, a amostra contemplou 18 sujeitos envolvidos com games em educação, baseando-se em três critérios: pesquisa, desenvolvimento e aplicação. Foram analisados artigos e publicações de autores brasileiros, constatando-se a baixa produção sobre o tema, principalmente, de cunho qualitativo sobre ao assunto. Além disso, observou-se uma presença de livros e publicações em língua inglesa muito superior às produções nacionais, por essa razão, a pesquisa buscou ampliar a discussão sobre o tema. Como resultados das entrevistas, foram destacados benefícios cognitivos, pedagógicos, interacionais com base nas teorias interacionistas de Vygotsky e Piaget, nas quais os jogos digitais formam espaços de aprendizagem e interação, cabendo, contudo, aos educadores, a escolha de empregá-los ou não em salas de aula. Os resultados também revelam alguns problemas de implementação, tais como: (1) falta de investimentos em treinamento dos professores, (2) falta de infraestrutura nas instituições de ensino, (3) integração curricular, (4) acesso à infraestrutura/tecnologia em comunidades ribeirinhas fora dos grandes centros urbanos, (5) adequação ao público-alvo, pois nem todos os estudantes se interessam por jogos eletrônicos. Ao final, iniciativas do MEC têm propiciado a busca de novas ferramentas e tecnologias que venham a incrementar as práticas pedagógicas, e nesse sentido, os jogos digitais adequam-se a esta realidade exigida, pois trazem consigo novas reflexões acerca do ensino, do papel dos professores, e de novas possibilidades no ensino de Gestão Pública. O valor estratégico dos games revela-se como uma ferramenta pedagógica propiciadora de espaços de aprendizado alicerçados em: interatividade, imersão e interconectividade, responsáveis por tornarem os aluno sujeitos ativos no processo educacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A avaliação da eficiência da aplicação de recursos públicos vai muito além da simples análise da legalidade, probidade e presteza dos procedimentos administrativos. Está relacionada também à qualidade dos serviços prestados diante do investimento realizado e dos resultados pretendidos. O presente estudo analisa a aplicação dos recursos do Fundo Municipal dos Direitos da Criança e do Adolescente de São Paulo (FUMCAD-SP), com o objetivo de oferecer à Secretaria Municipal de Direitos Humanos e Cidadania reflexões sobre as práticas de gestão que impactam diretamente na qualidade dos investimentos realizados, bem como na capacidade de avaliar investimentos perante os desafios colocados pelas políticas de atenção a crianças e adolescentes e recomendações aos gestores do fundo, visando a qualificação dos instrumentos de planejamento, monitoramento e avaliação dos projetos financiados, sob a perspectiva do FUMCAD-SP como instrumento da política pública de crianças e adolescentes. Para isso, foram analisados dados e informações – os quais compreenderam o período de 2005 a 2015, com significativas diferenças na qualidade de sua sistematização ao longo do período – referentes às práticas de gestão administrativa e governança do fundo, assim como seus instrumentos de planejamento, monitoramento e avaliação. A proposta também abarcou entrevistas com os principais atores dos órgãos envolvidos na gestão do fundo, visando identificar informações qualitativas que pudessem qualificar as recomendações que serão apresentadas neste estudo.