16 resultados para Equivalente dinâmico
Resumo:
O objetivo deste trabalho é estudar os fatores que influenciam a qualidade de aprendizagem e a eficácia em grupos. Os grupos de trabalho são aqui considerados sistemas sociais complexos e o estudo aqui desenvolvido parte da premissa de que é na inter-relação de fatores estruturais, cognitivos e interpessoais que se pode explicar a qualidade da aprendizagem e o nível de eficácia de um grupo. Este trabalho enfatiza a importância de se utilizar raciocínio sistêmico para o entendimento de sistemas complexos e constrói um modelo conceitual de Dinâmica de Sistemas, partindo de uma ampla revisão da literatura – de teorias de aprendizagem individual, em grupos e organizacional, de teorias da eficácia e de teorias sobre grupos – e de três estudos de caso. Ao final do trabalho, um modelo genérico qualitativo é oferecido aos interessados em uma análise sistêmica das complexidades que envolvem o processo de aprendizagem e a eficácia em grupos de trabalho.
Resumo:
Recentes evidências empíricas sugerem que o consumo aumenta em resposta a um aumento nos gastos do governo. Essa descoberta não pode ser facilmente reconciliada com os resultados dos modelos de otimização dos ciclos econômicos. Para testar tais evidências utilizamos uma versão simplificada do modelo novo keynesiano padrão estendido em Galí, López-Salido e Vallés (2007), para permitir a presença de consumidores Rule-of-Thumb. Mostramos como a interação desses últimos, sob a hipótese de rigidez de preços e financiamento via déficits, pode explicar as evidências existentes sobre os efeitos dos gastos do governo.
Resumo:
Postulando a unidade do domínio vital, Jean Piaget formula a tese da continuidade entre os níveis biológico e psicológico e hipotetiza uma correspondência funcional entre processos evolutivos da natureza orgânica e psicogenese de estruturas cognitivas. No âmbito dos mecanismos evolutivos, o epistemólogo propõe um modelo explicativo para a fenocópia, processo que ele define como substituição de variações fenotípicas devidas a fatores exógenos por variações genotípicas determinadas de modo endógeno. Segundo o autor, existiria um equivalente cognitivo da fenocópia, o qual é concebido como um processo psicológico são discutidos os fundamentos teóricos do modelo biológico elaborado pelo autor e são apresentadas suas hipóteses explicativas para a fenocópia. são examinadas as críticas que os biólogos dirigiram ao modelo piagetiano e são analisadas as relações entre as fenocópias orgânica e cognitiva são então avaliadas, no terreno da Psicologia Cognitiva, eventuais implicações das objeções lançadas contra o modelo biológico de Piaget. Verifica-se que as relações entre os dois processos reduzem-se a analogias e que as críticas e explicações alternativas à hipótese piagetiana não se aplicam de modo imediato à psicogênese dos conhecimentos, embora comportem consequências epistemológicas para a abordagem biológica da formação dos conhecimentos.
Resumo:
O trabalho procura analisar a utilização dos modelos em geral dos modelos de simulação em particular como instrumento para o treinamento de executivos em marketing. Utilizando-se de conceitos e/ou teorias geralmente aceitos na área de marketing, foi elaborado um modelo de simulação que,à luz de dados secundários relevantes da realidade brasileira, pudesse servir como instrumento para (a) treinar executivos na "prática" de marketing, (b) ensinar conceitos e teorias existentes na área de marketing, (c) representar os aspectos relevantes da realidade de marketing, e (d) treinar os executivos de marketing no processo de tomada de decisões. Colocado em teste junto a um grupo selecionado de executivos, o modelo de simulação foi considerado pelos mesmos como sendo um instrumento útil para o treinamento e/ou desenvolvimento de executivos na área de marketing
Resumo:
Neste trabalho fazemos um resumo de alguns artigos que tratam de equilíbrio geral dinâmico com custos de default. Focamos no estudo dos modelos de Kehoe e Levine (1993) e de Alvarez e Jermann (2000). Também descrevemos algumas adaptações do modelo de Alvarez e Jermann, como os trabalhos de Hellwig e Lorenzoni (2009) e de Azariadis e Kaas (2008), e comparamos os resultados desses modelos com os de Huggett (1993), no qual os mercados são exogenamente incompletos. Finalmente, expomos uma falha no algoritmo computacional sugerido por Krueger e Perry (2010) para se computar os equilíbrios estacionários de economias como as de Alvarez e Jermann (2000).
Resumo:
Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.
Resumo:
Nos próximos anos são esperados elevados volumes de investimentos em Tecnologia da Informação (TI) no Brasil e no Mundo. Por trás desses investimentos está a expectativa de que as organizações irão alcançar níveis superiores de performance e produtividade, os quais deverão ser gerados, entre outras coisas, por novas formas de organização e práticas inovadoras de negócio viabilizadas pela TI. Nesse contexto, a capacidade de gerir as possíveis resistências que serão trazidas por essas mudanças organizacionais se mostra um dos fatores mais importantes para o sucesso desses investimentos. Diante disso, o objetivo deste trabalho é analisar alguns dos diversos modelos existentes sobre resistência a mudança em implantações de Sistemas de Informação e, a partir da articulação de três deles, propor um metamodelo teórico que poderá ter um maior poder de explicação desse fenômeno.
Resumo:
Este trabalho avança no sentido de compreender esse processo de saída da indústria das tradicionais regiões industriais e dos grandes centros urbanos. A partir de uma abordagem empírica quantitativa e do uso de dados secundários sobre mão de obra, busca dialogar com os trabalhos aplicados à economia industrial brasileira que diagnosticam a desconcentração e analisam as decisões locacionais das firmas. Utilizando como referência a metodologia desenvolvida Dumais, Ellison e Glaeser no artigo Geographic Concentration as a Dynamic Process, este trabalho busca compreender o processo de desconcentração industrial a partir de uma abordagem dinâmica, como produto da formação de novos centros industriais, do declínio de antigas regiões especializadas, do surgimento de novas plantas e do fechamento de empresas. A análise empírica sobre as duas últimas décadas confirma o processo de desconcentração da atividade industrial no Brasil, mas aponta para uma desaceleração dessa tendência. Este trabalho confirma o diagnóstico apresentado por outros trabalhos que apontam para diferentes padrões de concentração setoriais. Conforme esperado, os setores de extração são consideravelmente mais concentrados que os de manufatura, pois dependem da localização da matéria prima a ser extraída. Ao abordar apenas os setores têxtil e de vestuário, verifica-se o inverso: estes setores são consideravelmente mais desconcentrados. Selecionando apenas os setores de alta tecnologia, verifica-se que eles também são mais concentrados que todos os setores conjuntamente. As taxas de desconcentração são então decompostas entre os efeitos de reversão à média e dispersão, de forma a evidenciar a mobilidade da indústria. O que se verifica é que a mobilidade é muito maior do que apenas as taxas de desconcentração demonstram. O efeito de reversão à média é quatro vezes maior que o efeito total e consideravelmente maior que o efeito aleatório, sendo suficientemente forte para levar a uma redução de mais de 40% na aglomeração industrial brasileira a cada cinco anos. Por outro lado, o efeito dispersão é responsável por um crescimento de mais de 30% nas taxas de aglomeração para a indústria como um todo a cada quinquênio, de forma que a variação total observada em cada um desses períodos é produto da diferença desses dois movimentos contrários. Estes valores observados são muito superiores aos encontrados por para a economia americana. Ao analisar o efeito que a criação de novas empresas, do encerramento de firmas em funcionamento e da expansão e contração da mão de obra, verifica-se que o nascimento de empresas contribui para a desaglomeração da atividade industrial, pois estes eventos ocorrem em maior quantidade fora dos centros onde já existe aglomeração. Por outro lado, as empresas são menos propensas a encerrar suas atividades nas regiões que possuem uma participação maior do que a esperada de emprego na indústria. Ou seja, o fechamento de empresas, conforme também encontrado para o mercado americano, contribui para a aglomeração industrial. Para expansões e contrações em empresas já existentes, ambos os tipos de evento contribuem para o efeito de reversão à média e para a desaglomeração da indústria.
Resumo:
Este trabalho analisa a importância dos fatores comuns na evolução recente dos preços dos metais no período entre 1995 e 2013. Para isso, estimam-se modelos cointegrados de VAR e também um modelo de fator dinâmico bayesiano. Dado o efeito da financeirização das commodities, DFM pode capturar efeitos dinâmicos comuns a todas as commodities. Além disso, os dados em painel são aplicados para usar toda a heterogeneidade entre as commodities durante o período de análise. Nossos resultados mostram que a taxa de juros, taxa efetiva do dólar americano e também os dados de consumo têm efeito permanente nos preços das commodities. Observa-se ainda a existência de um fator dinâmico comum significativo para a maioria dos preços das commodities metálicas, que tornou-se recentemente mais importante na evolução dos preços das commodities.
Resumo:
Dado a importância da gestão de risco associada às operações de crédito, modelos estatísticos que avaliam o risco de inadimplência tornaram-se fundamentais na mensuração do risco associado a um cliente. Neste contexto, foi desenvolvido um modelo dinâmico de crédito utilizando variáveis características dos clientes, comportamentais e macroeconômicas através da Análise de Sobrevivência aplicada a dados discretos. Os resultados obtidos indicam que a inclusão de variáveis macroeconômicas provoca um efeito significativo, porém baixo, no ajuste do modelo. Entretanto, nota-se uma melhora expressiva no poder de previsão da taxa de inadimplência do portfólio quando aplicado a um conjunto de dados de validação.
Resumo:
É vasta a literatura em finanças quantitativas sobre o apreçamento de derivativos, porém é bem reduzida em se tratando de ações. Nessa dissertação, procuramos aplicar o modelo de Bakshi-Chen na avaliação de ações listadas na Bovespa. Os inputs do modelo são o lucro por ação, LPA, dos últimos doze meses, a expectativa de crescimento de lucro para os doze meses seguintes (g), e a taxa de juros. Vamos mostrar o ganho de precisão em relação ao modelo de Gordon e avaliar o modelo na prática realizando um backtest para descobrir se o modelo consegue estimar o valor das ações melhor do que os investidores.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.