58 resultados para Osciladores não-lineares
Resumo:
Resumo O objetivo deste trabalho é explorar a utilização de Redes Neurais no processo de previsão da Captação Líquida do Mercado de Previdência Privada Brasileiro como ferramenta à tomada de decisão e apoio na gestão das empresas do setor. Para a construção desse modelo foram utilizadas Redes Neurais, ferramenta que vem se mostrando adequada para utilização em modelos não lineares com resultados superiores a outras técnicas. A fonte de dados principal para a realização deste trabalho foi a FENAPREVI – Federação Nacional de Previdência Privada e Vida. Para comparação com o modelo de Redes Neurais, foi utilizado um modelo de Regressão Linear Múltipla como benchmark, com o objetivo de evidenciar a adequação da ferramenta em vista dos objetivos traçados no trabalho. O modelo foi construído a partir das informações mensais do setor, entre maio de 2002 e agosto de 2009, considerando o que se convencionou chamar de ‘mercado vivo’, que abrange os produtos PGBL e VGBL, comercializados ininterruptamente nesse período pelas chamadas EAPP – Entidades Abertas de Prividência Privada. Os resultados obtidos demonstraram a adequação da ferramenta Redes Neurais, que obtiveram resultados superiores aos obtidos utilizando Regressão Linear Múltipla.
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
Este trabalho discute a racionalidade econômica para o desenvolvimento de um sistema de metas sociais como forma de o governo federal aumentar a eficiência na utilização dos recursos sociais transferidos para os municípios. O trabalho desenvolve algumas extensões do modelo de agente-principal incluindo abordagens estáticas com e sem informação imperfeita e abordagens dinâmicas com contratos perfeitos e imperfeitos. Os resultados dos modelos estáticos indicam que o uso de critérios usuais de focalização onde localidades mais pobres recebem mais recursos pode levar a incentivos adversos para a erradicação da pobreza. Nós também mostramos que transferências incondicionais do governo federal deslocam gastos sociais locais. O trabalho argumenta em favor do uso de contratos onde quanto maior for a melhora no indicador social escolhido, mais recursos o município receberia. A introdução de informação imperfeita neste modelo basicamente gera uma penalidade aos segmentos pobres de áreas onde os governos demonstram ser menos avessos a pobreza. O trabalho também aborda o problema de favoritismo político onde determinados grupos sociais têm maior, ou menor, atenção por parte de governos locais. O resultado é que as políticas sociais acabam privilegiando determinados setores em detrimento de outros. Com o estabelecimento de metas sociais é possível, se não eliminar o problema, ao menos criar incentivos corretos para que os gastos sociais sejam distribuídos de forma mais equânime. Também desenvolvemos modelos dinâmicos com diferentes possibilidades de renegociação ao longo do tempo. Demonstramos que a melhor forma de aumentar a eficiência alocativa dos fundos seria criar mecanismos institucionais garantindo a impossibilidade de renegociações bilaterais. Esse contrato ótimo reproduz a seqüência de metas e transferências de vários períodos encontrada na solução do modelo estático. Entretanto, esse resultado- desaparece quando incorporamos contratos incompletos. Nesse caso, as ineficiências ex-ante criadas pela possibilidade de renegociação devem ser comparadas com as ineficiências ex-post criadas por não se usar a informação nova revelada ao longo do processo. Finalmente, introduzimos a possibilidade do resultado social observado depender não só do investimento realizado, mas também da presença de choques. Nesse caso, tanto o governo quanto o município aumentam as suas metas de investimento na área social. Contratos lineares na presença de choques negativos fazem com que os municípios recebem menos recursos justamente em situações adversas. Para contornar esse problema, mostramos a importância da utilização de contratos com comparação de performance.
Resumo:
Esta dissertação tem com objetivo avaliar uma das implicações da hipótese de expectativas para a estrutura a termo de taxa de juros brasileira. Utilizando testes lineares tradicionais e através da reprodução de testes não lineares TAR de Enders e Granger (1998) e ESTAR Kapetanios e Shin (2003) conclui-se que a hipótese de expectativas não é totalmente válida para a ETTJ do Brasil, além disso, são encontradas evidências de não linearidade nas séries de spreads que demandam mais pesquisa sobre o assunto.
Resumo:
Este trabalho tem três objetivos básicos, tendo como base um banco de dados de taxas reais de câmbio entre Brasil e 21 parceiros comerciais no período de 1957 a 2010. O primeiro objetivo é o de verificar a validade da Paridade do Poder de Compra entre Brasil e seus parceiros comerciais através de três testes de raiz unitária (ADF, PP, KPSS). Para a maioria dos países, os testes de raiz unitária foram inconclusivos ou não rejeitaram raiz unitária quando foram utilizados dados mensais e modelos lineares. Já para dados de periodicidade anual, houve maior aceitação de estacionariedade, além de um número menor de resultados inconclusivos. O segundo objetivo é o de investigar a hipótese em Taylor (2001) de que a meia-vida é superestimada quando a amostra é formada a partir de um processo de agregação temporal pela média. Os resultados confirmam as conclusões de Taylor e superestimam a meia-vida em uma janela de 35% a 56% do que seria a meia-vida calculada a partir de dados de final de período. O terceiro objetivo do trabalho é o de verificar se a taxa real de câmbio possui uma reversão não-linear à média. Considerando dados mensais, foi verificado que na maioria dos testes rejeita-se a hipótese nula de raiz unitária contra a hipótese alternativa de globalmente estacionária, porém não-linear.
Resumo:
Este trabalho testa a existência de relações de codependência de ordem zero em spreads formados a partir da estrutura a termo da taxa de juros no Brasil. O objetivo é verificar se existem combinações lineares dos spreads que geram um processo ruído branco contemporâneo. Essas combinações lineares poderiam ser utilizadas para a previsão de taxas de juros futuras dado que desvios destas relações estáveis implicariam em um movimento futuro das taxas de juros no sentido de restabelecer o equilíbrio. O modelo de Nelson e Siegel (1987) serve de base teórica para os testes empíricos. Ao verificar a hipótese de codependência de ordem zero é possível também analisar premissas quanto aos parâmetros do modelo em relação à estrutura a termo da taxa de juros no Brasil. As evidências obtidas a partir dos resultados empíricos apontam na rejeição da hipótese de codependência de ordem zero e, consequentemente, na impossibilidade de definir as combinações lineares mencionadas. Esta constatação pode estar relacionada aos períodos de instabilidade presentes na amostra ou na existência de codependência de ordem superior a zero.
Resumo:
Esta investigação visa o melhor entendimento do fenômeno do crowding em lojas, dentro do contexto do mercado brasileiro, procurando identificar como as respostas dos consumidores variam entre os de renda baixa e renda alta, e buscando fatores que possam melhor explicar essas diferenças. Para atender esses objetivos, adotou-se uma metodologia experimental para testar como o aumento da densidade humana afeta diferentemente as respostas dos consumidores de alta e baixa renda. Como moderadoras da relação entre densidade humana e as respostas de consumidores, utilizaram-se as variáveis renda (alta e baixa) e familiaridade (alta e baixa). Três experimentos de desenhos fatoriais permitiram o teste das hipóteses propostas, por meio de análises multivariadas: ANOVAs, ANCOVAs e regressões lineares. Os estudos demonstraram que renda efetivamente modera as respostas dos consumidores, pois existe substancial diferença entre os consumidores de alta e baixa renda para situações de alta densidade humana em lojas. Foram verificadas as seguintes respostas dos consumidores com menor renda em situações de alta densidade humana: atitude mais positiva e maior nível de satisfação do que os de alta renda; percepção de maior valor hedônico em lojas mais cheias de gente versus os de maior renda. Os resultados contrariam a maioria dos achados de estudos realizados nos Estados Unidos nas últimas décadas. Enquanto a maioria desses estudos indica uma resposta negativa à densidade humana, os resultados desta pesquisa evidenciaram que existem respostas mais positivas para o segmento econômico de consumidores de baixa renda. Constatou-se também o efeito moderador do controle informacional (familiaridade) na relação entre densidade humana e as respostas dos consumidores, e o efeito mediador da percepção de valor hedônico na relação entre densidade e satisfação. Os achados oferecem uma contribuição teórica para enriquecer o entendimento do fenômeno de crowding e ressaltam a importância de se considerar a diversidade do contexto socioeconômico para se garantir o desenvolvimento de generalizações que corretamente reflitam as várias realidades do mercado. Do ponto de vista gerencial, o estudo reforça a necessidade de o varejo desenvolver uma maior distinção em ambientes de loja para melhor satisfazer as diferentes preferências dos diversos segmentos de mercado.
Resumo:
Diversos estudos evidenciam as vantagens da presença de líderes autênticos nas organizações. O presente estudo visa identificar as prioridades, em termos de valores, que impactam na autenticidade de um líder, ou seja, investigar quais as prioridades, em termos de valores, de uma pessoa, que podem influenciar no seu desempenho como líder autêntico. Mais propriamente, quais os Valores – considerando a estrutura de valores propostas por Schwartz (2005) – estão relacionados à expressão das dimensões que compõem as características descritas, na literatura, como sendo o perfil do líder autêntico. Para tanto, foi realizada uma pesquisa quantitativa, com questionário aplicado a 295 indivíduos de organizações com natureza e atuação diversas. Os dados foram analisados a partir de técnicas estatíticas multivariadas, utilizando análise fatorial e regressões lineares múltiplas e hierárquicas. Os resultados apontam que, de todos os valores propostos por Schwartz, apenas a Auto Transcendência relaciona-se positiva e significantemente com a Liderança Autêntica. Não foram identificados quaisquer efeitos de moderação ou interação, na expressão de Liderança, em relação aos pares de variáveis que representam os quadrantes da estrutura de valores. Assim, o estudo aponta para a Auto transcendência, traduzidos nos tipos motivacionais da benevolência e do universalismo, como principal fator preditor da autenticidade de um líder, esta sendo potencializada na medida em que o mesmo amplia suas experiências de coordenação e avança em idade ou tempo de vida.
Resumo:
Este artigo analisa as séries de câmbio real brasileira calculada a partir de índices de preços ao consumidor para o Brasil e 21 parceiros comerciais no período de 1957 a 2010. O primeiro objetivo deste trabalho será o de avaliar a validade da Paridade do Poder de Compra (PPC) entre Brasil e seus parceiros comerciais através de diversos testes de raiz unitária (ADF, PP, KPSS, Kapetanios et al. (2003) e Bierens (1997)). O segundo objetivo consiste em investigar a hipótese de Taylor (2001) de que a meia-vida é superestimada quando os dados das séries são construídos a partir de um mecanismo de agregação temporal pela média e cujo processo gerador dos dados é linear. O trabalho apresenta elementos para confirmar o argumento de Taylor (2001) de que agregação temporal causa sérias distorções na estimação da meia-vida dos choques da PPC. Os resultados dos testes de raiz unitária lineares (PP e ADF) são desfavoráveis a PPC. Já o teste KPSS, de Kapetanios et al. (2003) e de Bierens (1997) aplicados a base sem agregação temporal sugerem um cenário bem mais favorável a PPC.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
Transações envolvem certo grau de incerteza. Um contrato pode não ser completamente eficiente quando um dos lados possui mais informação que o outro surgindo assim, um problema de assimetria de informação. Há dois importantes problemas de assimetria de informação: Seleção adversa e Risco moral, que aparecem na relação Credor-Tomador. Os governos possuem algumas ferramentas para diminuir a assimetria de informação, no mercado de crédito e fomentar as operações de crédito do país. Proteção legal dos credores e a existência dos bureaus de crédito são instituições que contribuem para o desenvolvimento do mercado privado de crédito. A motivação deste trabalho é analisar os impactos no ambiente de crédito, da disponibilidade de informação dos tomadores, aliada à importância dos diretos do credor. Neste sentido, são realizados ensaios sobre o efeito destes quesitos no spread bancário, inadimplência e volume de crédito sobre PIB. Indo além da literatura revisada, este trabalho estuda empiricamente o efeito da concentração bancária, no compartilhamento de informações de crédito dos clientes. São realizados três ensaios buscando esclarecer esse tema. Outro ponto diferenciado desta dissertação é o uso de técnica de painel para a realização dos ensaios. Os resultados encontrados foram: identificação da influência da concentração bancária na profundidade das informações compartilhadas, sugestão sobre a função bureaus públicos em abrir o mercado de crédito de um país e indicação da complementariedade entre a troca de informação de crédito e o direto legal. Por fim, este trabalho explorou relações não lineares das variáveis para identificar os níveis que elas trazem impacto significativo ao mercado de crédito.
Resumo:
As variáveis econômicas são frequentemente governadas por processos dinâmicos e não-lineares que podem gerar relações de dependência de longo prazo e padrões cíclicos não-periódicos com mudanças abruptas de tendências. Para o caso dos preços agrícolas este comportamento não é diferente e as peculiaridades destes mercados podem gerar séries temporais fracionalmente integradas, cujas singularidades não seriam adequadamente capturadas pelos tradicionais modelos analíticos fundamentados na hipótese dos mercados eficientes e de passeio aleatório. Sendo assim, o presente estudo buscou investigar a presença de estruturas fractais no mercado à vista de algumas das principais commodities agrícolas brasileiras: café, boi gordo, açúcar, milho, soja e bezerro. Foram empregadas técnicas tradicionais e específicas para a análise de séries temporais fractais como a análise de R/S e a aplicação de modelos das famílias ARFIMA e FIGARCH. Os resultados indicaram que, com exceção do bezerro, o componente de drift destas séries não apresentou comportamento fractal, ao contrário do observado para o componente da volatilidade, que apresentou aspecto de estrutura fractal para todas as commodities analisadas.
Resumo:
Mesa redonda com Jaime Antunes da Silva, diretor do Arquivo Nacional; Vilma Moreira dos Santos, superintendente do Arquivo Público Mineiro, e Rosa Maria Barboza de Araujo, presidente do Museu da Imagem e do Som do Rio de Janeiro. A mesa tem como foco os desafios de instituições de acervo nas atividades de preservação, acesso e difusão de documentação histórica. Será possível conhecer casos de arquivos que têm passado por mudanças importantes na sua organização e, nesse sentido, algumas aproximações poderão ser feitas com o Arquivo Nacional da França, que acaba de inaugurar uma nova sede em Pierrefitte-sur-Seine, para onde foram transferidos 200 quilômetros lineares de documentos. Seminário em torno dos 40 anos do CPDOC.
Resumo:
O aumento da complexidade do mercado financeiro tem sido relatado por Rajan (2005), Gorton (2008) e Haldane e May (2011) como um dos principais fatores responsáveis pelo incremento do risco sistêmico que culminou na crise financeira de 2007/08. O Bank for International Settlements (2013) aborda a questão da complexidade no contexto da regulação bancária e discute a comparabilidade da adequação de capital entre os bancos e entre jurisdições. No entanto, as definições dos conceitos de complexidade e de sistemas adaptativos complexos são suprimidas das principais discussões. Este artigo esclarece alguns conceitos relacionados às teorias da Complexidade, como se dá a emergência deste fenômeno, como os conceitos podem ser aplicados ao mercado financeiro. São discutidas duas ferramentas que podem ser utilizadas no contexto de sistemas adaptativos complexos: Agent Based Models (ABMs) e entropia e comparadas com ferramentas tradicionais. Concluímos que ainda que a linha de pesquisa da complexidade deixe lacunas, certamente esta contribui com a agenda de pesquisa econômica para se compreender os mecanismos que desencadeiam riscos sistêmicos, bem como adiciona ferramentas que possibilitam modelar agentes heterogêneos que interagem, de forma a permitir o surgimento de fenômenos emergentes no sistema. Hipóteses de pesquisa são sugeridas para aprofundamento posterior.
Resumo:
Este artigo investiga os determinantes da mudança no padrão da votação nas eleições presidenciais de 2006, em particular o papel do programa Bolsa Família e do desempenho da economia na migração da base eleitoral de Lula para as regiões menos desenvolvidas. Do ponto de vista metodológico, inovase ao considerar adequadamente o problema gerado pela agregação de decisões individuais tipicamente não-lineares. Quanto aos resultados, ao contrário de Carraro et alli (2009) e outros autores, encontra-se que o impacto do programa Bolsa Família é bastante superior ao do desempenho econômico. No entanto, nenhum dos dois fatores foi capaz de explicar satisfatoriamente toda a extensão da mudança observada em 2006. Nesse sentido, ganha grande apelo a explicação apresentada em Zucco (2008), de que Lula, ao ser o candidato do governo, naturalmente teria desempenho superior em municípios menos desenvolvidos, mais dependentes do Estado.