364 resultados para Risco (Economia) - Avaliação - Modelos matemáticos
Resumo:
Esta pesquisa investigou as razões pelas quais gestores da empresa Sonae Sierra Brasil decidem adotar prerrogativas socioambientais; especificamente, em projetos de edificações sustentáveis (Green Building). O estudo almejou contribuir para o entendimento de quando a adoção desta modalidade de projetos gera valor na sua cadeia na percepção de diversos executivos da empresa, concorrentes e um de seus principais stakeholders: operações do varejo (lojistas). Assim, foram realizadas entrevistas que forneceram subsídios para a observação das manifestações de valor normalmente percebidas, fatores contrastantes ou limitantes destes valores e, por fim, observar se os valores percebidos por gestores da empresa são compartilhados por estes gestores externos a ela. Os resultados apontaram, principalmente, para valores intangíveis, como criação de identidade empresarial, integração empresarial e transferência de conhecimento e sinalização ao mercado, para as quais não foi observada qualquer ressalva. Relevou também que manifestações de valor, normalmente tidas como relevantes motivadores na adoção destes projetos, como diferenciação, e benefício de imagem e marca são frequentemente destacadas, mas acompanhada de questionamentos. Os resultados da pesquisa contribuem para o entendimento da forma como as organizações percebem os valores de projetos socioambientais. Com isso, auxilia administradores de empresas a tomar decisões embasadas em experiências passadas, e gestores públicos na formulação de regulamentações que visem à redução do impacto ambiental de edificações.
Resumo:
Trato do problema da assimetria de informação no mercado de crédito e do uso da informação externa como forma de minimizar esse efeito negativo. Descreve os modelos teóricos de troca de informação na presença de Bureaus de crédito e aborda o mercado brasileiro de crédito, conduzindo avaliações qualitativas e quantitativas.
Resumo:
A forte apreciação cambial que o Brasil sofreu na última década se traduziu em um novo debate acerca da hipótese de Doença Holandesa no país. Como a queda da taxa de câmbio real ocorreu em um período de alta de preços de commodities e nos últimos anos, especialmente após a crise de 2008, vimos uma maior concentração da pauta exportadora em produtos primários, muitos economistas argumentam que a apreciação foi consequência do boom de commodities e que, em razão disso, o Brasil poderia estar sofrendo da Doença Holandesa. Este trabalho mostra que o boom de commodities não foi a principal causa da apreciação da taxa de câmbio real e não representou uma maior dependência destas mercadorias. A mudança do perfil de risco da economia brasileira foi um dos fatores mais importante para a queda da taxa de câmbio. Concluímos, portanto, que a recente perda de competitividade dos demais setores exportadores não pode ser atribuída exclusivamente à valorização das commodities.
Resumo:
Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).
Resumo:
Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.
Resumo:
O aumento da complexidade do mercado financeiro tem sido relatado por Rajan (2005), Gorton (2008) e Haldane e May (2011) como um dos principais fatores responsáveis pelo incremento do risco sistêmico que culminou na crise financeira de 2007/08. O Bank for International Settlements (2013) aborda a questão da complexidade no contexto da regulação bancária e discute a comparabilidade da adequação de capital entre os bancos e entre jurisdições. No entanto, as definições dos conceitos de complexidade e de sistemas adaptativos complexos são suprimidas das principais discussões. Este artigo esclarece alguns conceitos relacionados às teorias da Complexidade, como se dá a emergência deste fenômeno, como os conceitos podem ser aplicados ao mercado financeiro. São discutidas duas ferramentas que podem ser utilizadas no contexto de sistemas adaptativos complexos: Agent Based Models (ABMs) e entropia e comparadas com ferramentas tradicionais. Concluímos que ainda que a linha de pesquisa da complexidade deixe lacunas, certamente esta contribui com a agenda de pesquisa econômica para se compreender os mecanismos que desencadeiam riscos sistêmicos, bem como adiciona ferramentas que possibilitam modelar agentes heterogêneos que interagem, de forma a permitir o surgimento de fenômenos emergentes no sistema. Hipóteses de pesquisa são sugeridas para aprofundamento posterior.
Resumo:
Nesta tese estuda-se a Percepção de Adoção de Instrumentos de Mensuração de Resultados de Marketing (PAIMRM) e a sua relação com a Maturidade da Indústria (MI) à qual as empresas pertencem. Seus objetivos gerais são (1) desenvolver e validar uma escala de PAIMRM, e (2) testar um modelo teórico que relacione PAIMRM com MI. Estes objetivos também se desdobram em objetivos secundários: (A) discutir as implicações deste modelo teórico em diferentes estágios de MI e (B) testar um modelo teórico semelhante que relacione PAIMRM e Maturidade da Empresa (ME). Para isto foram utilizados 419 questionários coletados junto a executivos de Marketing de diversas empresas e em diferentes ondas de coleta. Primeiramente uma escala de PAIMRM com 16 itens e 6 dimensões foi desenvolvida e validada utilizando um procedimento que incluiu sete passos: (1) Definição Conceitual do Construto; (2) Geração dos Itens; (3) Validação de Conteúdo; (4) Definição de Dimensões; (5) Análise de Dados; (6) Validade Nomológica; (7) Validade de Grupos Conhecidos. No passo 6, duas hipóteses foram testadas e suportadas por dois modelos de equação estrutural. O primeiro modelo suportou a relação entre PAIMRM e MI (H1), com boa adequação do modelo aos dados, enquanto o segundo suportou a relação entre PAIMRM e ME (H1.b), com razoável adequação do modelo aos dados. No passo 7, três hipóteses foram testadas pela análise de diferenças entre médias e análise de variáveis categorizadas, para três grupos conhecidos: MI baixo, MI médio e MI alto. É comum em indústrias com MI baixo a preocupação pela falta de estrutura, tecnologia e definição de mercado, explicando a expectativa de que a PAIMRM em indústrias não maduras seja baixa. Em estágios intermediários, as empresas que compõem uma indústria passaram por uma “seleção natural” e algumas das questões que definem o modelo de negócios foram respondidas, mas não sistematizada e nem assimilada pelos gestores, fazendo com que o esforço dispendido para avaliar o desempenho empresarial seja maior, o que resultaria em aumento da PAIMRM, explicando a expectativa de que a PAIMRM seja alta em indústrias medianamente maduras. Finalmente, em estágios subsequentes de MI, a consolidação dos modelos de negócios, assimilação de conhecimento advindo de informações anteriormente adquiridas e a relativa diminuição de alterações no ambiente da indústria, reduzem a necessidade de esforço para acompanhar os negócios, supõe-se que PAIMRM seja baixo em indústria maduras. A hipótese de PAIMRM baixo quando MI for baixo (H2.a) foi suportada pelos dois testes, enquanto a hipótese de PAIMRM alto quando MI for médio (H2.b) e PAIMRM baixo quando MI for alto (H2.c) não foram suportadas. Implicações gerenciais incluem específicas decisões de adoção de instrumentos de mensuração de resultados de marketing para cada estágio de MI, uma vez que tais decisões são influenciadas tanto pela maturidade da indústria na qual a empresa está inserida quanto pela própria maturidade da empresa.
Resumo:
O principal objetivo desta dissertação é avaliar se o modelo de Comer identifica adequadamente a composição das carteiras dos fundos multimercados brasileiros. Ao confirmar sua eficiência, o modelo foi utilizado para avaliar se os fundos estão seguindo a política de investimento de acordo com sua classificação ANBIMA. Comparou-se o resultado do modelo, a classificação dos fundos na ANBIMA, e a alocação efetiva dos gestores, através da divulgação das carteiras na CVM. A comparação destes três fatores nos permite inferir a qualidade do modelo e o enquadramento do fundo. A hipótese central da pesquisa consiste em verificar se o modelo multifatorial de análise de estilo baseado em retorno desenvolvido por Comer é eficiente em sua aplicação no mercado de fundos multimercados brasileiro. Verificar ainda se os fundos da amostra estão enquadrados de acordo com sua classificação perante a ANBIMA. Este estudo usou a base de dados da Economática para obter uma amostra de fundos de investimento multimercado e testar a hipótese colocada. As regressões foram estimadas semanalmente no período de julho de 2007 até junho de 2012. Os resultados geraram as seguintes conclusões: 1) O modelo de análise de estilo dos fundos com base em seus retornos para fundos multimercados é eficiente para o Brasil, passando pelos testes de robustez nele aplicado. Confirmando assim, esta técnica como mais uma ferramenta de suporte ao investidor para alocar seu dinheiro. 2) A relação entre modelo, classificação ANBIMA e ativos da carteira.
Resumo:
A história da República Popular da China e do Partido Comunista Chinês é uma história de conflitos inter- e intraorganizacionais. Entretanto, desde a ascensão de Deng XiaoPing não houve uma ruptura institucional, apesar do número de interesses e a complexidade terem aumentado. Com base nas reformas no sistema financeiro e no financiamento de longo-prazo para os governos subnacionais, pretende-se demonstrar os conflitos que ocorrem entre os diferentes agentes que possuem interesses quanto a alocação dos recursos financeiros, as mudanças institucionais geradas para acomodar as diferentes demandas, e recentemente o projeto de urbanizar a população chinesa como um projeto político prioritário do novo governo. O aspecto institucional e conflitivo entre diferentes organizações provocam um trade-off que estrutura a economia chinesa e as futuras reformas e políticas públicas que serão implementadas.
Resumo:
The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity – accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium – represented here by credit spreads – trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics
Resumo:
Os ácaros ectoparasitas Varroa destructor, que parasitam as abelhas tornaram-se um problema global. Embora seja pouco provável que estes ácaros, por si só, provoquem a mortalidade das colmeias, eles desempenham um importante papel como vetor de muitas doenças virais. E estas doenças são identificados como algumas das mais importantes razões para a Desordem do Colapso das Colônias. Os efeitos da infestação do V.destructor são distintas em diferentes partes do mundo. Maiores mortalidades de colônias têm sido relatadas em colônias de abelhas européias (AE) em países da Europa, Ásia e América do Norte. No entanto, este ácaro está presente no Brasil já por muitos anos e não existem relatos de perdas em colônias das abelhas africanizadas (AA). Estudos realizados no México mostraram que alguns comportamentos de resistência ao ácaro Varroa - especialmente o grooming e o comportamento higiênico - são diferentes em cada uma das subespécie. Poderiam então esses mecanismos explicar por que as abelhas africanizadas são menos suscetíveis à Desordem do Colapso das Colônias? A fim de responder a esta pergunta, propomos um modelo matemático baseado em equações diferenciais, com o objetivo de analisar o papel desses mecanismos de resistência na saúde geral da colônia e na capacidade da colônia para enfrentar desafios ambientais.
Resumo:
Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.
Resumo:
Um dos desafios diários enfrentados nas diferentes empresas é avaliar com razoável precisão a dinâmica dos preços de seus ativos e passivos. Em muitos casos esses preços estão atrelados ao preço de commodities, devido a sua presença tanto como insumos produtivos quanto em derivativos financeiros. Nesse contexto o presente trabalho se propõe a avaliar um modelo de volatilidade estocástico através da aplicação de estratégias de trading. Desta forma busca-se comparar diferentes estratégias de negociação para avaliar o resultado financeiro obtido a partir da adoção do modelo proposto.
Resumo:
O trabalho busca através de um exercício empírico, extrair as curvas de probabilidade implícita de default em debêntures brasileiras. A construção ocorre em duas etapas. O primeiro desafio é obter as estruturas a termo das debêntures brasileiras. Foi utilizada a revisão proposta por Diebold e Li (2006) do modelo de Nelson Siegel (1987) para construç o das ETTJs. A segunda etapa consiste em extrair a probabilidade de default utilizado a forma reduzida do modelo de Duffie e Singleton (1999). A fração de perda em caso de default foi considerada constante conforme estudo de Xu e Nencioni (2000). A taxa de decaimento também foi mantida constante conforme proposto por Diebold e Li (2006) e Araújo (2012). O exercício foi replicado para três datas distintas durante o ciclo de redução de juros no Brasil. Dentre os resultados desse estudo identificou-se que os agentes do mercado reduziram a probabilidade de default dos emissores durante esse período. A redução nos vértices mais curtos foi mais significativa do que em vértices mais longos.
Resumo:
The goal of t.his paper is to show the possibility of a non-monot.one relation between coverage and risk which has been considered in the literature of insurance models since the work of Rothschild and Stiglitz (1976). We present an insurance model where the insured agents have heterogeneity in risk aversion and in lenience (a prevention cost parameter). Risk aversion is described by a continuou.'l parameter which is correlated with lenience and, for the sake of simplicity, we assume perfect correlation. In the case of positive correlation, the more risk averse agent has higher cost of prevention leading to a higher demand for coverage. Equivalently, the single crossing property (SCP) is valid and implies a positive correlation between coverage and risk in equilibrium. On the other hand, if the correlation between risk aversion and lenience is negative, not only may the sep be broken, but also the monotonicity of contracts, i.e., the prediction that high (Iow) risk averse types choose full (partial) insurance. In both cases riskiness is monotonic in risk aversion, but in the last case t,here are some coverage leveIs associated with two different risks (low and high), which implies that the ex-ante (with respect to the risk aversion distribution) correlation bet,ween coverage and riskiness may have every sign (even though the ex-post correlation is always positive). Moreover, using another instrument (a proxy for riskiness), we give a testable implication to disentangle single crossing and non single crossing under an ex-post zero correlation result: the monotonicity of coverage as a function of riskiness. Since by controlling for risk aversion (no asymmetric informat, ion), coverage is a monotone function of riskiness, this also gives a test for asymmetric information. Finally, we relate this theoretical results to empirica! tests in the recent literature, specially the Dionne, Gouriéroux and Vanasse (2001) work. In particular, they found an empirical evidence that seems to be compatible with asymmetric information and non single crossing in our framework. More generally, we build a hidden information model showing how omitted variabIes (asymmetric information) can bias the sign of the correlation of equilibrium variabIes conditioning on ali observabIe variabIes. We show that this may be t,he case when the omitted variabIes have a non-monotonic reIation with t,he observable ones. Moreover, because this non-monotonic reIat,ion is deepIy reIated with the failure of the SCP in one-dimensional screening problems, the existing lit.erature on asymmetric information does not capture t,his feature. Hence, our main result is to point Out the importance of t,he SCP in testing predictions of the hidden information models.